展会信息港展会大全

OpenAI为何主动求监管?
来源:互联网   发布日期:2023-05-20 08:28:19   浏览:4635次  

导读:2023年5月16日,在美国参议院小组委员会听证会上,OpenAI首席执行官萨姆奥尔特曼(Sam Altman)呼吁政府对人工智能(AI)进行监管。他认为,如果这项技术出错,会错得很严重,会对世界造成重大伤害。 在我再次创新之前阻止我,在场的伊利诺斯州参议员Dick Du...

2023年5月16日,在美国参议院小组委员会听证会上,OpenAI首席执行官萨姆奥尔特曼(Sam Altman)呼吁政府对人工智能(AI)进行监管。他认为,如果这项技术出错,会错得很严重,会对世界造成重大伤害。

“在我再次创新之前阻止我”,在场的伊利诺斯州参议员Dick Durbin直言这真是让人耳目一新,他已经想不起来还有其他公司如此强烈要求对其所处行业进行监管,过去科技企业都是在监管部门推动下而为之。

不过,面对2022年11月ChatGPT发布以来的全球AI狂潮,各主要科技企业对大模型的快速跟进,人们对AI潜能的期待、风险的担忧,对“始作俑者”OpenAI来说,这似乎是目前唯一的正确选择。

政府在行动

这不是OpenAI第一次和政府监管部门打交道。不过,施压者并非来自美国本土,而是欧洲。

一个多月前,2023年3月31日,意大利数据保护局(DPA)宣布禁用ChatGPT,并对其展开调查。主要原因是ChatGPT出现了用户对话数据和付款服务支付信息丢失情况,且没有核查用户的年龄,没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。

4月13日,法国国家信息自由委员会(CNIL)、西班牙国家数据保护局(AEPD)在同一天里宣布对ChatGPT展开调查。随后,欧洲数据保护委员会成立专门工作组,以促进该调查在欧洲地区的合作事宜。

与此同时,全球各国就AI产业发展和监管纷纷采取行动。

OpenAI为何主动求监管?

从2021年一些生成式AI初创企业开启AI作画、AI生成视频,再到ChatGPT、GPT-4为代表的大模型文本生成,既让大家看到了它在提升人类社会生产力方面的潜力,也在安全、公平、合规、隐私和知识产权等方面带来了全新挑战。

2023年5月11日,欧洲议会内部市场委员会和公民自由委员会通过了《人工智能法案》(The AI Act)的谈判授权草案。这一草案将于今年6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。

这一法案其实是在2021年首次提出,采取分级管理的思路,对不同风险等级的AI进行分级管理,风险越高越严格,对透明度和准确性要求越高。那时候还没有生成式AI,不过现在立法者已经为之添加了一项修正案,将生成式AI与高风险系统置于同一级别。如无意外,它将成为全球第一部有关AI的法规。

在欧洲议会通过草案的前一周(5月4日),美国白宫宣布了一项AI行动计划,以促进负责任的人工智能创新,保护美国人的权利和安全。其中包括美国国家科学基金会提供1.4亿美元的资金,以启动7个新的国家人工智能研究所,这项投资将使美国的研究所总数达到25个,参与的组织网络扩展到几乎每个州;对现有的生成式AI进行公开评估,以探索它们如何与政府AI管理框架保持一致。

不同于欧洲要对人类安全造成不可接受风险的AI系统进行严格监管,美国把鼓励创新、产业发展放在了监管的前面,并就此展开了一系列的研究和规划。

2022年10月4日,白宫科技政策办公室(OSTP)发布《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right),确定了五项原则用以指导自动化系统的设计、使用和部署,以保护人工智能时代美国公众的利益。

2023年1月,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架》(AI Risk Management Framework);美国国家人工智能研究资源工作组(NAIRRTF)提交《加强美国人工智能创新生态系统并使之民主化:国家人工智能研究资源的实施计划》(Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem:An Implementation Plan for a National Artificial Intelligence Research Resource)。

就在白宫发布行动计划的当天,美国副总统哈里斯和政府高级官员与Alphabet、Anthropic、微软和OpenAI等四家美国AI公司的首席执行官们会谈。

即便政府监管和规范如此紧锣密鼓推进,OpenAI还是坐不住了。

企业更着急

政府无疑是AI监管极为重要的一环,通过制定法律法规,来规范人工智能系统开发和使用规则,解决网络安全、数据隐私等问题。但政府监管总是要滞后于技术与产业发展,因为原有的法律条规无法完全覆盖当前的开发和应用场景,而法律法规制定需要时间。

身处一线的从业者们,对技术的理解、对其应用可能产生的结果有着更敏锐的感知。Sam Altman在5月16日的听证会上,用了“printing press time”来形容目前AI的发展状态。

越来越多的AI从业者们相信,人类已经进入通用人工智能(AGI)的前夜,这是一个历史和技术的转折点,类似原子核裂变的发现,或印刷术的发明。以大模型为代表的生成式AI,已经迅速掌握了普通人穷极一生都难以掌握的人类知识,相比之下,人类对AI的掌握和了解太少太少。

机器学习使得AI可以自主学习,虽然人们可以知晓算法模型,但在很多情况下却难以理解其运作过程。由于“算法黑箱”导致AI不透明、不可解释,即便开发者可能也难以理解他们所开发的AI。

OpenAI自己也做了一次实验,用GPT-4来解释GPT-2的行为模式。他们用GPT-4打造了一个理解AI行为模式的工具,对GPT-2超过30万个神经元解释,并和实际情况比对进行评分。结果,虽有超过1000个神经元的解释得分在0.8以上,更多神经元的解释得分很低。

正因为AI的不可解释,人会有理由对其产生担忧和不信任,产业发展更应谨慎。但是在资本和不同经济体对创新、新兴产业的支持下,入围这一轮AI竞赛的企业正一路狂奔。

投资了50家AI初创企业的知名投资人Ian Hogarth,2023年4月底在FT发表文章《我们必须放慢通往上帝般人工智能的速度》(We must slow down the race to God-like AI),对此有一个形象的描述:大科技公司正在加速AI竞赛,他们还不知道如何安全地追求他们的目标,也没有监督。他们正在向终点线跑去,却不了解另一边是什么。

ChatGPT发布两个月就有了1亿用户,一度还因为访问量过大而暂停服务。可直到2023年4月25日,OpenAI才调整了用户使用条款,在 ChatGPT 中增加关闭聊天记录的功能,用户禁用聊天记录时启动的对话不会用于训练和改进的模型,也不会显示在历史记录边栏中。

OpenAI在发布GPT-4时不再开源,招来一片声讨。OpenAI首席科学家Ilya Sutskever解释称,当AI能力较低时,开源是好事,但当它能力变得巨大,开源是明显不负责任的。此时,安全是闭源的重要驱动力。

这倒并不完全是对商业化和竞争的推托之词。AI的发展速度超出了开发者的预期,一切都没有准备好。一旦出错,首当其冲的,就是走在最前面的OpenAI。在监管缺位的情况下,如果有人用开源模型造出了杀人机器,怎么办?

Sam Altman在5月16日的听证会上阐述风险时表示,“我最担心的是我们会造成重大伤害,我们这个领域,这项技术,这个行业会对世界造成重大伤害。我认为这可能以很多不同的方式发生。”

人类的未来应该由人类来决定

ChatGPT“出圈”之后,全球科技企业快速追随,基于开源代码,结合企业此前的AI积累和业务场景,套上新的壳,出来一个又一个新模型,让人眼花缭乱。就连OpenAI自己,在ChatGPT面世仅4个月后,就忙不迭地推出了新一代大模型GPT-4。

Sam Altman在听证会上透露,在完成GPT-4的训练后,其实是等了6个多月才部署。虽然他称目前并没有将训练用于GPT-5的计划,未来6个月内也没有,但是训练并没有停止,他认为目前还没有看到任何他们阻止训练下一个模型的理由。

这实在是让竞争对手和追随者们无比紧张。在训练完GPT-4之后,OpenAI究竟在这最近的8个月里训练什么,下一次又会放出什么大招来?

其实OpenAI也很紧张。Sam Altman多次公开表示,由于所需资源很大,能训练真正前沿模型的公司数目只是少数。他甚至在听证会上直言,“我认为我们及竞争对手需要受到巨大监督”。

建构负责任的AI,AI才可能有更好的发展。除了政府的政策法规,科技企业们也从不同角度展开尝试。

2023年4月底,英伟达发布了一个开源软件NeMo Guardrails,在用户和大模型之间设置一组可编程的约束规则,来帮助软件开发者为AI设置“护栏”,防止它们产生不良的输出。

谷歌团队,试图引入美国政治哲学家约翰罗尔斯(John Rawls)的“无知之幕”(VoI)原则,来调整AI行为原则,确保公平和正义。

同时,也有很多研究者、从业者在持续发声,唤起人们对AI的关注。

2023年3月22日,包括图灵奖得主Yoshua Bengio等在内的多位知名人士联名签署公开信,认为当前AI实验室陷入了一场失控的竞赛,考虑到AI可能给人类社会带来的风险,呼吁暂停大型AI实验6个月。同时,AI开发者必须与政策制定者合作,加快开发强大的 AI治理系统。

有着“AI教父”之称的Geoffrey Hinton,在2023年5月初辞去谷歌的职位,以更好地谈论AI,做一个敲响警钟的人。他在2023年5月3日《麻省理工技术评论》(MIT Technology Review)的一个活动中讲述了对AI的担忧:失控AI可能让人类只是智慧演化过程中的一个过渡阶段。

Hinton认为,人们不会停止发展AI,也不会有机会阻止它们发展,因为它们有用。他更倾向于需要用某种方法来确保,即使AI比人类聪明,仍会做对人类有益的事情。同时,我们需要在一个有恶意行为者的世界里尝试这样做,而对此现在谁也没有好的解决方案。

AI给人类社会带来的挑战,是综合、全方位的。仅从5月16日美国参议院的听证会看,参议员们提到的既有就业、舆论、隐私、安全、商业模式,还有美国大眩这更需要政府、企业、研究者们展开合作,以及更广泛的国际合作。

不过,在当前地缘政治、产业竞争环境中,国际合作会比此前艰难。因此,除了政府法规、行业标准、企业自律、研究机构的前瞻性指引,公众对AI的认知和意愿,更为重要。

正如Sam Altman在2023年2月24日在博客Planning for AGI and beyond中写到的,从长期看,“我们认为,人类的未来应该由人类来决定,与公众分享有关进展的信息很重要。应该对所有试图建立AGI的努力进行严格的审查,并对重大决策进行公众咨询”。

南方周末研究员 李一跞 南方周末研究员 唐家乐

赞助本站

相关热词: OpenAI 为何 主动 监管

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港