集微网消息,据彭博社报道,OpenAI首席执行官萨姆奥特曼(Sam Altman)5月警告美国国会人工智能会带来危险。科技公司希望以自己的方式推出人工智能,强调他们需要政客的帮助。
但不久后,奥特曼表示,他将尽力遵守欧盟规则,但如果这是非常困难的,他的公司将在欧盟内“停止运营”。这番言论促使内部市场专员蒂埃里布雷顿(Thierry Breton)指责奥特曼“试图勒索”。奥特曼第二天澄清了他的评论,当CEO和专员上周亲自会面时,他们同意在监管问题上保持一致。
人工智能的发展正在蓬勃发展。仅在2023年前四个月,该行业就筹集了超过10亿美元的风险投资资金,从牙刷到无人机,各种系统都已经投入使用。事态发展的程度和速度将在很大程度上取决于政府是否介入。
大型科技公司表示他们希望受到监管。现实情况要复杂得多,在美国,谷歌、微软、IBM和OpenAI已经要求议员监督人工智能,他们说这对于保证安全和与中国的竞争力是必要的。与此同时,欧盟最近批准了一项立法草案,该草案将为生成性人工智能设置护栏,这些公司的游说者正在反对他们认为会不必要地限制科技最热门的新领域的措施。
美欧的科技规则差异很大。五年多来,欧盟已经制定了全面的数据保护法,并且正在实施严格的竞争和内容审核准则。然而,在美国,二十多年来几乎没有任何监管。据参与欧盟即将出台的人工智能法案(AI Act)的多名官员称,呼吁内部监督一直是大型科技公司的一种方式,因为它将欧洲立法引向了更有利的方向。
科技公司知道他们不能忽视欧盟,特别是在其社交媒体和数据保护规则已成为全球标准的情况下。欧盟的《人工智能法案》可能在未来两到三年内实施,这将是西方政府监管人工智能的首次尝试,并得到严厉处罚的支持。如果公司违反该法案,欧盟可能会处以相当于公司年营业额6%的罚款,并禁止产品在欧盟运营,据估计,欧盟占全球人工智能市场的20%至25%,预计10年内全球人工智能市场的价值将超过1.3万亿美元。
这使该行业处于微妙的境地。智库DataEthics的联合创始人Gry Hasselbalch表示,如果该法案的一个版本成为法律,最大的人工智能提供商“将需要从根本上改变他们的透明度,以及他们处理风险和部署模型的方式。”
风险业务
与其它科技领域相比,人工智能方面的立法进展缓慢。2021年,欧盟委员会(European Commission)发布了其人工智能法案(AI Act)的初稿,启动了一个涉及三个政府机构、27个国家、数十名游说者和一轮又一轮谈判的进程,这些谈判可能会在今年晚些时候结束。该提案采取了一种“基于风险”的判别方法,在极端情况下禁止人工智能用于类似中国那样的社交评分系统。简而言之,该提案禁止绝大多数人工智能在没有监督的情况下运行。
草案的大部分内容都集中在“高风险”事件的判定规则上。例如,发布人工智能系统来预测犯罪或对工作申请进行分类的公司将被限制只能使用高质量的数据,并被要求进行风险评估。除此之外,草案还规定了深度造假和聊天机器人的透明度:当人们与人工智能系统对话时,他们必须被告知,生成或操纵的内容需要被标记。该文本没有提及生成式人工智能,这是一种机器学习算法的总括类别,能够创建新的图像、视频、文本和代码,但尚未爆发。
大型科技公司欢迎这种做法。他们还试图模糊边界。虽然草案称开发商应对其系统的使用方式负责,但公司及其贸易团体认为用户也应该承担责任。微软在一份立场文件中表示,由于生成式人工智能的潜力使公司无法“预测全方位的部署场景及其相关风险”,因此“关注部署者对人工智能系统的实际使用”尤为重要”。在闭门会议上,科技公司的官员们更加坚信人工智能本身只是一种反映用户意图的工具。
更重要的是,根据提交给议员的修正案草案,IBM希望确保“通用人工智能”一个更广泛的类别,包括图像和语音识别、音频和视频生成、模式检测、问题回答和翻译被排除在监管之外,或者在微软的情况下,将由客户处理监管检查。
许多公司都坚持这一立常IBM欧盟事务负责人Jean-Marc Leclerc在给彭博社的一份声明中写道,“我们敦促继续采用基于风险的方法,而不是试图将技术作为一个整体来控制。”
一些最强大的人工智能系统可以在很大程度上避免监督的想法引起了行业观察人士的警惕。最初由埃隆马斯克(Elon Musk)部分资助的非营利组织“未来生命”(Future of Life)当时写道,“未来的人工智能系统将比GPT-3更通用”,需要明确监管。“未来生命”的CEO马克斯泰格马克(Max Tegmark)写道,“该提案应该要求对它们的所有预期用途(以及可预见的误用)进行完整的风险评估,而不是“根据有限的既定目的对它们进行分类”。
欧盟考虑监管所有通用人工智能
看起来大型科技公司似乎会得到它想要的东西,各国甚至一度考虑将通用人工智能完全排除在文本之外,直到2022年春天,政治家们开始担心他们低估了它的风险。在法国的敦促下,欧盟成员国开始考虑监管所有通用人工智能。
这时,此前一直置身于欧洲立法程序之外的OpenAI决定加入进来。2022年6月,该公司公共政策负责人在欧盟会见了官员。不久之后,该公司向委员会和一些国家代表发送了一份文件,首先由《时代》杂志报道,称他们“担心”一些提议“可能会无意中导致我们所有的通用人工智能系统被默认捕获”。
然而,欧盟国家确实继续要求所有通用人工智能遵守一些高风险要求,例如风险评估。此类立法草案于2022年12月获得批准,就在ChatGPT发布一周后。
被聊天机器人的能力和前所未有的受欢迎程度所震惊,欧洲议会成员在他们的下一份草案中采取了更强硬的态度。两周前批准的最新版本要求OpenAI等“基础模型”的开发者必须总结用于训练大型语言模型的版权材料,评估该系统可能对民主和环境构成的风险,并设计无法生成非法内容的产品。
《人工智能法案》的两位主要作者之一Dragos Tudorache解释说:“归根结底,我们对生成性人工智能模型的要求是一点透明度。”如果“将算法暴露在不好的事情中”存在危险,那么开发人员必须努力为此提供保护。
虽然Meta、苹果和亚马逊基本上保持沉默,但其他主要开发商正在反击。谷歌在向议员发表评论时表示,议会的控制将有效地将通用人工智能视为高风险,而事实并非如此。公司还抗议说,新规定可能会干扰现有的规定,一些公司表示,他们已经实施了自己的控制措施。行业组织 CCIA 的博尼法斯德尚普里斯 (Boniface de Champris) 表示:“仅是声誉受损的可能性就足以促使公司大规模投资于用户安全。”
科技公司要求监管人工智能,但认为欧盟过度监管
随着公众实时目睹生成性人工智能的缺陷,科技公司越来越多地要求监督人工智能。据官员称,他们更愿意谈判。在OpenAI的Altman和谷歌的Sundar Pichai于5月底开始与欧盟监管机构会面后,竞争主管玛格丽特维斯塔格(Margrethe Vestager) 承认,大型科技公司正在接受透明度和风险要求。
Tudorache说,这种方法“非常务实”,并补充说,反对监管的开发商将“落在历史的错误一端,并将拿自己的商业模式冒险”。
一些批评者还认为,尽早遵守监管可能是大公司确保市场主导地位的一种方式。柏林赫蒂学院(Hertie School)伦理与技术教授乔安娜布赖森(Joanna Bryson) 解释说:“如果政府现在介入,那么他们就可以巩固自己的领先地位,并找出谁正在接近他们。”
如果你问科技公司,他们会告诉你他们并不反对监管,他们只是不喜欢提供的一些建议。“我们从一开始就接受微软将在技术堆栈的多个层面受到监管;我们并没有逃避监管。”微软发言人写道,表达了许多开发者的观点。该公司还表示支持成立一个新的人工智能监督机构,以确保安全标准并颁发许可证。
与此同时,科技公司和贸易团体正在继续反对议会和成员国对《人工智能法案》的修改。开发商已要求提供更多有关实际监管的细节;比如说,OpenAI将如何评估ChatGPT对民主和环境的影响。在某些情况下,他们接受某些参数,同时挑战其他参数。
根据彭博看到的评论,OpenAI在4月份写信给议员,表达了对监控和测试框架以及通用人工智能新标准的支持。谷歌最近站出来支持美国的“辐射-中枢”监管模式,要求将监管分散到许多不同的机构,而不是单一的集中机构。谷歌支持风险评估,但继续支持基于风险的方法。谷歌没有回应置评请求。
然而,随着人工智能的赚钱潜力变得更加清晰,一些政治家开始接受行业的观点。法国前数字部长、现任技术顾问塞德里克奥上个月警告说,监管过度可能会损害欧洲的竞争力。他得到了法国总统马克龙的支持,马克龙在议会投票后的法国科技会议上表示,欧盟需要注意不要过度监管人工智能。
在《人工智能法案》最终投票之前,尚不清楚欧盟将在多大程度上实际决定对该技术进行监管。但即使谈判代表尽快采取行动,公司也需要在2025年起遵守该法案。
(校对/刘昕炜)