欧洲议会周三通过了《人工智能法案》(A.I.Act),预计在通过欧盟理事会取得27个成员国的批准后,年底前将成为全球第一部监管人工智能的法律。
欧盟已经就立法监管人工智能进行了两年多的辩论,但计划一直在适应变化,监管总是在追逐创新,中间不停地修改。去年ChatGPT的发布,使这个问题变得更加紧迫。生成式人工智能技术正在迎来大规模部署的阶段,对就业和社会潜在的影响,以及技术本身的安全性,在全球引发了更大的担忧。
全球主要的科技和经济大国在展开人工智能竞赛的同时,也在监管方面你追我赶。从联合国、欧盟、七国首脑会议到主权国家,都要表示出对人工智能的不安全感。
欧盟要用《人工智能法案》为全球人工智能的发展和治理设定基调,确保这项技术能够根据民主、基本权利和法治的欧洲价值观发展和使用。
欧洲委员会执行副主席维斯塔格(Margrethe Vestager)认为,现在并不是谈论人工智能“消灭人类”的时候,当下更值得关注的人工智能风险,是人们会受到歧视,”人们会不被视为他们自己。“ 维斯塔格长期负责欧盟竞争政策和数字经济政策。
法案将:
全面禁止生物识别监视、情感识别和预测性执法的人工智能;
像ChatGPT这样的生成式人工智能系统必须披露内容是由人工智能生成的
用于影响选民在选举中的人工智能系统被视为高风险
以下为欧洲议会的官宣翻译:
法规旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。
欧洲议会于星期三以499票赞成、28票反对和93票弃权通过了《人工智能法案》的谈判立场,为与欧盟成员国就法律的最终形式进行谈判做准备。这些规定将确保在欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视性和社会与环境福祉。
禁止的人工智能做法
这些法规采取风险为基础的方法,根据人工智能可能产生的风险程度对提供者和部署人工智能系统的人设立义务。因此,对于对人们的安全构成不可接受风险的人工智能系统将被禁止使用,例如用于社会评分(根据人们的社会行为或个人特征进行分类)的系统。议会议员还扩大了禁止使用侵入性和歧视性人工智能的范围,例如:
公共场所的实时远程生物识别系统;“后期”远程生物识别系统,只有在司法授权后,用于执法严重罪行的情况下才允许使用;使用敏感特征(例如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统;基于个人特征(如个人画像、位置或过去的犯罪行为)的预测性执法系统;在执法、边境管理、工作场所和教育机构中使用的情感识别系统;未经定向的从互联网或闭路电视摄像头中抓取面部图像以创建面部识别数据库(违反人权和隐私权)。
高风险人工智能
议会议员确保高风险应用程序的分类,从现在起将包括对人们的健康、安全、基本权利或环境造成重大危害的人工智能系统。将用于影响选民和选举结果以及社交媒体平台上使用的推荐系统(拥有超过4500万用户)的人工智能系统,被列入高风险名单。
通用人工智能的义务
基础模型提供者(这是人工智能领域中新兴且快速发展的一个方向)必须在其发布到欧盟市场之前评估和减轻可能的风险(对健康、安全、基本权利、环境、民主和法治),并将其模型注册在欧盟数据库中。基于这些模型的生成式人工智能系统(例如ChatGPT)必须遵守透明度要求(披露由人工智能生成的内容,有助于区分所谓的深度伪造图像和真实图像),并确保防止生成非法内容。用于训练的受版权保护数据的详细摘要也必须公开可得。
支持创新和保护公民权利
为了推动人工智能创新并支持中小企业,议会议员对添加了豁免条款,包括研究活动和通过开放源代码许可提供的人工智能组件。新法律提倡所谓的监管沙盒,即公共机构建立的现实环境,用于测试人工智能在部署之前的情况。
最后,议员希望增强公民权利,具此可以对人工智能系统提出投诉,并接受对严重影响其基本权利的高风险人工智能系统决策的解释。议会议员还对欧盟人工智能办公室的角色进行了改革,该办公室将负责监督人工智能法规的实施情况。
下一步
与欧盟理事会关于法律最终形式的谈判,当天即开始。