上周末,欧盟经过了马拉松式的谈判后,终于敲定了一项历史性的AI监管协议,这也将成为全球首个广泛覆盖包括生成式AI在内的监管法案,并且是全球对AI监管最为严格的法案。
在新规则中,立法者同意严格限制面部识别技术的使用,并禁止利用人工智能进行“社会评分”以及“操纵人类行为”的人工智能系统。新规还禁止利用人工智能剥削那些因年龄、残疾或经济状况而处于弱势的人。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。
欧盟一直走在技术监管的最前沿。欧盟委员会内部市场专员蒂埃里布雷顿 (Thierry Breton) 在X平台上表示,欧盟将成为首个为人工智能的使用制定明确规则的地区,《人工智能法案》不仅仅是一本规则手册,它还是欧盟初创企业和研究人员引领全球人工智能竞赛的“跳板”。
监管和创新如何平衡?
一些业内人士担心,ChatGPT等生成式AI工具有能力使用大量数据从简单查询中生成复杂且类似人类的输出,并可能产生歧视性语言、侵犯隐私。
但在企业看来,严格的制约可能会打击欧洲公司的创新能力。今年6月,包括法国空客公司和德国西门子公司在内的数十家最大的欧洲公司表示,如果政府制定的规则过于严格,则无法培育创新和帮助当地产业。
对此,布雷顿表示,欧盟出台的规则将为人工智能技术的使用提供保障措施,同时避免给企业带来“过度负担”。
在欧盟就AI监管法案达成协议后,法国工业软件巨头达索系统董事会主席兼首席执行官夏伯纳(Bernard Charles
)接受第一财经记者采访时表示:“每个国家和地区对技术都会有相应的管控和限制,包括来自欧洲以及法国本身的监管。作为达索系统这样的高价值软件企业而言,必须要遵守这些规则。”
在夏伯纳看来,这些监管诞生的时机正处于人工智能技术蓬勃发展的背景下,这是顺应技术发展的必然举措,但同时,也不应该影响到技术创新的进步。
他同时也提到,在把高科技的软件技术出口给中国等市场时,也同样应该遵守相应的标准及合规。“达索系统软件的源代码是源自欧洲的,所以我们把这些软件提供给中国出口的时候,要满足欧洲出口的相应标准和合规。”夏伯纳说。
他强调,对于一家全球化的企业而言,应该非常了解每个国家和每个地区的法律法规体系,顺应不同国家的合规要求,并在有新的合规要求出现的时候,尽快去分析和研究,并发现其中的机会,创造更多价值。
达索系统此前收购了美国AI软件公司Medidata,Medidata正在就十几项应用了AI合成对照组技术的临床试验与各监管方进行讨论。
法国空客和德国西门子医疗也都是AI领域创新的积极拥护者。根据空客的官网介绍,该公司正通过人工智能重塑业务,重点关注与人工智能相关的六个技术领域,包括从非结构化文档中提取有价值的知识、基于深度学习检测和决策的计算机视觉、异常检测发现数据中隐藏的模式、设计自然语言交互系统的对话协助、优化非常复杂的约束问题的解决方案以及使下一代飞行器具有自主飞行新功能。
西门子医疗在上个月的北美放射学年会(RSNA)上率先展示了使用生成式AI技术将成像扫描与临床报告相结合,成为全球首家展示该技术应用的医疗设备厂商。该公司表示,未来计划将生成式AI技术开发为聊天系统,可以为临床医生的查询提供适当的答案,包括基于诊断数据的“动态生成”和优先级报告。
针对欧盟最新达成的AI法案,第一财经记者向空客和西门子医疗方面寻求意见,截至发稿,对方未予以回复。
此外,德国软件巨头SAP也在涉足人工智能领域。该公司今年以来宣布直接投资了三家人工智能初创公司,分别为Cohere、Anthropic和Aleph Alpha。一位SAP方面人士向第一财经记者指出:“我们对生成式AI的关注主要集中在应用层面。”
欧美监管方式有何不同?
欧盟AI法案在人工智能的发展历程中被视为具有里程碑式的意义,但已经有科技行业组织对这项新达成法案的潜在影响表达担忧和不满。
代表欧洲科技行业的集团Digital Europe总干事塞西莉亚博内菲尔德-达尔 (Cecilia Bonefeld-Dahl) 在网络平台上公开表示:“我们虽然达成了一项协议,但也将为此付出代价,这意味着我们需要投入更多来研究对抗人工智能使用风险的方法,而不是投入技术本身,新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”
Digital Europe的成员包括空客、爱立信SAP等数百家行业企业。早在今年6月,欧洲监管机构批准了《人工智能法案》草案时,该集团就在一封联名信中表示:“作为欧洲数字行业的代表,我们看到了基础模型的巨大机遇,以及该领域不断涌现的新的创新参与者,其中许多诞生于欧洲。在它们有机会扩大规模之前,我们不应对其进行监管,或者迫使他们离开。”
公开信的签署者声称,目前的《人工智能法案》可能会抑制人工智能技术为欧洲“重新加入技术先锋”的机会。 他们认为,批准的规则过于极端,有可能破坏欧盟的技术雄心,而不是为人工智能创新提供合适的环境。
这封联名信中还称,全球人工智能独角兽中只有3%来自欧盟,信中表示,支持法国、德国和意大利的联合提案,将基础模型的人工智能规则范围限制在透明度要求范围内。
此前,法国、德国和意大利的谈判代表要求效仿美国的监管方法,反对直接监管生成型人工智能基础大模型(通用人工智能模型GPAI),而是支持其背后的公司通过政府引入的行为准则进行自我监管。德国和法国是欧洲一些最有前途的人工智能初创公司的所在地,其中包括Aleph Alpha、DeepL和Mistral AI。
一位分析人士向第一财经记者指出,欧洲的监管理念是设置一系列可变动的监管标准,旨在对风险最高的人工智能系统施加最严格的限制,而针对其他风险程度较小的AI工具,则必须披露内容是由人工智能合成。
相比之下,美国的监管留给企业更大的余地,采取了“自愿行为准则”。拜登政府今年7月宣布了一项人工智能的自愿监管协议,并称包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI等公司都已经同意对它们开发的AI系统进行自我监管。
美国企业的“自我监管”承诺包括对AI工具进行第三方安全测试,对偏见及隐私问题进行研究,并向政府和其他机构共享风险信息,开发能够应对气候变化等社会挑战的AI工具,以及包含识别人工智能生成素材的透明性措施工具。近期,包括亚马逊AWS以及Meta在内的公司都推出了隐形的AI生成水印工具。
美国还有另一种来自国会的监管声音,一些议员提出,应设立一个类似于美国FDA的机构,监管人工智能服务的供应商,审核新系统的牌照,并制定各类标准。
中国自2021年以来,已经迅速出台了针对推荐算法、深度伪造等合成内容和生成式AI的一系列监管法规,这些法规包含了禁止社交平台利用推荐算法设置价格歧视等,还规定人工智能开发商必须对人工智能生成的合成内容进行标注。
大部分专家都认为,人工智能监管需要全球合作,这需要建立一个类似于国际原子能机构的组织。但这一构想也面临挑战,难点在于需要克服地缘政治的不信任以及经济竞争等各种因素。