展会信息港展会大全

全球首个AI行业综合性法规出台前夕:一场关于技术创新和风险管控的赛跑
来源:互联网   发布日期:2023-06-29 13:40:09   浏览:12817次  

导读:在数字技术监管领域走在全球前列的欧盟,6月14日通过了一部人工智能(AI)法案草案,这或将成为世界上人工智能行业的第一部综合性法规。随着人工智能领域的不断发展和创新,人们越来越担心人工智能对社会以及整个人类将会带来的风险,各个国家都在积极分析人...

在数字技术监管领域走在全球前列的欧盟,6月14日通过了一部人工智能(AI)法案草案,这或将成为世界上人工智能行业的第一部综合性法规。随着人工智能领域的不断发展和创新,人们越来越担心人工智能对社会以及整个人类将会带来的“风险”,各个国家都在积极分析人工智能的工业和战略优势及其潜在风险,并试图加强管控。

欧洲立法者虽然在这一技术的监管上迈出了很大一步,但依旧忽略了该技术所带来的一系列歧视性问题;此外,在各大科技公司以鼓励创新为由进行的各种游说下,人工智能对人权和弱势群体的歧视性影响,依旧遭到了立法者的忽视。

基于风险划分的AI法案

6月14日欧洲议会投票通过的人工智能法案草案,是一项历时两年的立法工作。在通过对欧洲议会、欧盟委员会和理事会制定的不同版本草案的漫长协商之后,正式的人工智能法案预计会在今年年底前获得批准,或将成为世界上人工智能行业的第一部综合性法规。

对于人工智能该如何监管,这项法案完全围绕着风险的概念来制定。它所监管的不是人工智能本身,而是在特定社会领域中的使用方式,每个领域都存在不同的潜在问题。该法案设定了四种风险类别:不可接受、高风险、有限风险和最低风险,并根据不同的类型制定相应的监管措施。

其中,“不可接受”包括被认为对基本权利或欧盟价值构成威胁的人工智能系统。例如用于“预测性警务”的人工智能系统,它能够根据个人信息对目标个体进行风险评估,以预测他是否可能犯罪。

更具争议的情况是在道路摄像头中使用脸部识别技术,这也已被列为“不可接受”的风险之一。根据新规定,只有发生了违法行为,并经过司法授权后才可以使用这一技术。

而那些被归类为“高风险”的人工智能系统则有义务自行披露,而且需要在一个特殊数据库中进行注册,还将受到各种监控或审计要求。预计被归类为“高风险”的应用包括关键基础设施、教育、人力资源、公共秩序和移民管理领域等与人类财产密切相关的人工智能系统。在这些领域使用人工智能并非违规行为,但由于其可能会对安全或基本权利产生负面影响,需要受到监管,从而确保欧盟境内的公民不会因性别或种族背景等个人特征而受到歧视。

AI法案对“有限风险”的人工智能系统的要求是最低的。比如对于生成式人工智能系统(例如能够生成文本、图像、代码、音频和其他形式内容的ChatGPT和DALL-E),需要告诉用户是机器而不是人类生成了内容,开发人员在发布应用之前还需要提交进行审查。

虽然这项法案没有将ChatGPT等“通用”人工智能视为“高风险”,但确实对所谓的“基础模型”或经过大量数据训练的强大人工智能系统提出了透明度要求和风险评估。这些“基础模型”的供应商,包括 OpenAI、谷歌和微软等公司,必须发布他们用于训练系统的材料摘要,并证明这些机器不会生成非法内容,未能证明其产品安全性可能会导致公司被迫删除其应用程序或被处以最高收入7%的罚款。法案还将禁止公司从社交媒体上抓取生物识别数据来创建用户数据库,不过,并没有要求这些公司必须声明训练期间是否使用了个人数据。

接下来,欧洲议会、欧盟委员会和欧盟成员国将会对最终法案进行谈判,如果能够在今年内实现立法,最早也要到2026年才能生效,因此欧盟还需要推动与科技公司达成自愿临时协议。这一漫长的过程也带来了一些问题,两三年过后人工智能到底能让整个世界会变成什么样子?法案还能否适用?

歧视才是最大风险

人类对于人工智能造成的“风险”一直有所警惕,这种“风险”甚至上升到了“人类灭绝”的程度。今年5月底,国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)发布了一封非常简短的公开信,写道:“与流行病和核战争等规模的风险一样,减轻人工智能带来的灭绝风险应该成为全球优先事项。”全球近400位人工智能领域专业人士签署,ChatGPT制造商OpenAI的首席执行官山姆阿尔特曼(Sam Altman)、Google DeepMind的首席执行官戴密斯哈萨比斯(Demis Hassabis)和Anthropic的首席执行官达里奥阿莫迪(Dario Amodei)都支持这一声明。

当然,也有很多专业人士表示,担心人工智能消灭人类是不现实的,而且会分散人们对已经存在的系统性偏见等问题的注意力。

牛津人工智能伦理研究所高级研究员伊丽莎白雷尼尔斯 (Elizabeth Renieris) 告诉BBC新闻,相对于“灭绝”这一担忧,她更担心的是近期的一些问题。她说:“人工智能的进步将扩大自动化决策的规模,这些决策带有偏见、歧视性、排他性或其他不公平性,难以理解但却不容争议。”这将“导致错误信息的数量和传播呈指数级增长,从而破坏事实并侵蚀公众信任,并进一步加剧不平等”,特别是对那些在数据鸿沟中处于劣势的群体。

欧洲数字权利(European Digital Rights)的高级政策顾问萨拉钱德(Sarah Chander)则对BBC指出,使用数据驱动的系统来进行监视并发起歧视,这种做法并不新鲜,在欧盟已经出现了许多类似的、令人担忧的做法,包括在移民签证申请过程中使用伪科学的“测谎”技术、已经有部分群体被所谓“中立”的技术边缘化。

她认为,欧盟关于人工智能的政策辩论虽然认识到“风险”的存在,但绝大多数仍然集中在人工智能所谓的“广泛的好处”上。如果这意味着以促进“创新”的名义回避明确的法律限制,那么欧洲的弱势群体将会最先付出代价。

欧洲多家工会组织已经指出,尽管这项具有里程碑意义的法案对有风险的人工智能情感识别系统实施了禁令,避免扭曲雇主与雇员的关系,但这只涉及工作过程的一小部分保护,仍旧缺失对欧盟工人利益的切实关注。欧洲工会研究所 (ETUI) 高级研究员艾达庞塞 (Aída Ponce) 指出:“我们需要针对劳动关系制定一项具体规定,因为人工智能法中有许多问题并没有得到澄清。”

代表5000万工人的全球产业工会(IndustriALL)认为只对被归类为“高风险”的人工智能应用程序进行监管是一个重大漏洞。 他们表示,只要人工智能系统使用工人的个人数据,就应全部被归类为“高风险”。全球产业工会还表示,人工智能做出的决定必须在法律上具有“可追溯性”和“可逆性”。

迄今为止,欧盟委员会对工人风险的主要回应是:提高技能。欧盟新闻材料喜欢使用“技能提升”、“再培训”和“数字技能”等话术,庞塞认为,这对有害的人工智能可能对人们的工作生活造成潜在损害这一关键问题并没有任何帮助。

“专注于研究技能政策以应对人工智能的使用,这是具有误导性的。”庞塞说,“需要完全重新构建应对方法。”

“好的技术”与“好的监管”

事实上,在讨论人工智能法案的两年中,欧盟委员会一直面临着来自谷歌、OpenAI等科技公司的压力,要求其避免“过度监管”而影响创新。2022年,OpenAI 多次向欧洲官员提出,即将出台的人工智能法案不应将其通用人工智能系统(包括ChatGPT的前身GPT-3和图像生成器Dall-E 2)视为“高风险”,这样就意味着它们将受到严格的法律要求,包括透明度、可追溯性和人工监督。

在这一点上,OpenAI与微软和谷歌保持一致,这两家公司此前都曾游说欧盟官员减轻该法案对大型人工智能提供商的监管负担。他们认为,那些明确打算将人工智能应用于“高风险”用例的公司才应该遵守该法案最严格的规定,而不是那些构建通用人工智能系统的公司,也就是微软这类行业内的大型公司。

“就其本身而言,GPT-3并不是一个高风险系统,”OpenAI在2022年9月发送给欧盟委员会和理事会官员的《OpenAI关于欧盟人工智能法案的白皮书》中表示,“但GPT-3确实拥有可用于‘高风险’用例的功能。”

今年5月,OpenAI的首席执行官阿尔特曼曾告诉记者,关于这项法案,他已经“收到了太多批评的声音”,如果OpenAI认为自己无法遵守该法规,可能会在欧洲“停止运营”。不过,他后来又反驳了这个说法,在“人工智能安全中心”发布公开信的前三天,阿尔特曼称他的公司没有计划离开欧洲,并打算与欧盟合作。

2022年6月,也就是发送白皮书的三个月前,OpenAI工作人员在布鲁塞尔首次会见了欧盟委员会官员。一位直接参与活动的欧盟委员会消息人士称,官员们从那次会议上得到的信息是,与其他大型科技公司一样,OpenAI害怕可能影响人工智能创新的“过度监管”。OpenAI工作人员在会议上表示,他们意识到了风险,并正在尽一切努力减轻风险,但是并没有告诉欧盟委员会“好的监管”应该是什么样子。

OpenAI 还在会议期间告诉官员,“可以调整人工智能的指令,使其拒绝共享如何制造危险物质这类信息”。网络安全公司Adversa AI已经证明,通过一些方法,ChatGPT很容易绕过内容过滤器并遵守一些违反法律道德的指令。Adversa AI只用了几小时便破译了ChatGPT-4,并成功试验了欺骗系统使之做出编写网络钓鱼电子邮件、散布恐同言论、支持暴力等行为。

尽管如此,OpenAI的游说努力似乎取得了成功:6月14日发表的最终草案中并未包含早期草案中的某些措辞,包括“通用人工智能系统应被视为‘高风险’”。所谓“基础模型”或经过大量数据训练的强大人工智能系统的提供者需要遵守较少的要求,包括防止非法内容的产生,披露系统是否经过训练受版权保护的材料,并进行风险评估等。OpenAI公司发言人告诉《时代》杂志,OpenAI支持在该法案中将“基础模型”作为一个单独的类别引入。

然而萨拉钱德认为,对创新是否有价值的真正检验是看它们在多大程度上改善了人们的生活,当业界声称人权保障将“阻碍创新”时,他们是在技术进步和社会进步之间制造了错误的界限,对利润的考量不应被用来证明歧视性或其他有害技术的合理性。

“在创新竞赛中,人权绝不能屈居第二。”人工智能可能会给我们的社会带来巨大的好处,但这些好处必须惠及我们所有人,我们不能接受只对那些销售和部署这些技术的人有利的技术,尤其是在充满歧视的地区。“有些决定太重要、太危险,无法通过算法做出。”她指出,“这是欧盟将人放在首位并在为时已晚之前停止歧视性人工智能的机会。”

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港