对于包括美国在内的全球各国来说,2023 年对于人工智能及其监管都是十分重要的年份,而在 2024 年预计必将还会有更多大事件和监管措施提出。
2024 年 1 月 5 日,我与同事梅丽莎海基莱(Melissa Heikkil)和 Zeyi Yang 发表了一篇文章,阐述了对于接下来 12 个月全球人工智能政策的展望。
总体来看,2023 年提出的各项战略很有可能将在 2024 年被继续展开讨论、扩大范围甚至开始得到落实。
例如,美国各政府机构可能将开始按照拜登总统的行政令要求,提出新的有关 AI 监管的实施方案,而人工智能公司也将依照此法令执行自我监管。
而在大洋彼岸的另一端,欧洲的公司和监管机构也将开始按照新的人工智能法案及其风险管控措施,来开展各项工作从而满足其要求。
这一过程肯定不会是一帆风顺的,肯定会有很多关于这些新法律和政策在实践中如何实际运作的讨论。
在写这篇文章时,针对人工智能及其监管如何走到今天这一步,我也进行了一些思考。我认为一项技术在崛起的同时也需要对其反思,这将帮助我们更好地了解接下来会发生什么。
作为一名记者,我发现随着时间推移,无论是区块链、社交媒体、自动驾驶汽车,还是任何其他快速发展、改变世界的创新领域,其发展都渐渐开始遵循类似的模式。
通常技术发展速度都比监管速度快得多,因此立法者也面临越来越大的挑战,不仅要制定可持续、经得起未来考验的法律,还要以跟得上技术进步的速度快速跟进。
就以美国人工智能的发展为例,虽然我不能确保 AI 的发展速度是目前人类历史上发展速度最快的技术,但不得不说 AI 的发展及其进入并影响人们生活的速度着实令人惊讶。
回顾 2023 年这一年,人工智能监管政策的发展主要方向有:大型科技公司的权力转移、国会的技能提升、美国两党的合作(至少在该领域)、地缘政治的竞争以及新兴技术的快速部署。
而从中我们学到了什么?接下来又会发生什么?尽管在 AI 政策方面有太多值得我们关注的事情,但在此我将其中最主要的内容概括为以下几个要点。
(来源:STEPHANIE ARNETT/MITTR)
美国政府不打算对大型科技公司施加压力,但立法者确实计划在人工智能行业采取更多行动。
OpenAI 的 CEO 山姆奥特曼(Sam Altman)于 2023 年 5 月开始了他的首次国会之旅,彼时距离 ChatGPT 的爆炸性发布已经过去了六个月。在一场私人晚宴上他会见了一些立法者,并就他们公司的技术可能对人类构成的生存威胁进行了辩证。
这次辩证为美国各界有关人工智能的讨论奠定了基调,在此之后拜登发表了关于人工智能的演讲,美国国会也举办了人工智能洞察论坛,来协助立法者跟上 AI 以及越来越多的大型语言模型的发展进度。值得注意的是,这些人工智能洞察论坛的嘉宾名单严重偏向于 AI 行业从业者。
随着美国立法者开始真正地关注人工智能,AI 领域也成为了美国国会两党罕见的共同合作的一个领域(尽管规模很小),两党的立法者都一致呼吁针对这项技术设置更多的监管措施。
与此同时,美国各州和各地法院也开展了越来越多的有关 AI 的行动,主要焦点是年龄验证和内容审核等方面的用户保护措施。
正如我此前曾写过,“通过这些行动,一种美国式的人工智能政策正开始初具雏形:这是一种对人工智能行业友好的政策,并将重点放在最优实践上,让不同机构来制定各自领域的规则,并针对不同经济领域按照不同的方式进行监管。”
这些行动中最引人瞩目的,便是拜登在 2023 年 10 月底颁布的行政令,该行政令概述了人工智能政策方面的分布式实施方案,其中提到由不同机构制定各自领域的规则。
以上方案之所以能够出炉,在很大程度上也是因为只有这样,才能被人工智能公司接纳并遵守。
2024 年,我们很有可能看到在此基础上出台的一些新法规。美国国会正在尝试起草新的法律,并针对推荐算法、数据隐私和透明度方面的现有法案进行修正,从而对拜登的行政令进行补充。各州也将考虑制定自己的法规。
应对人工智能带来的危害和风险并不容易。有关 AI 威胁人类的生存在 2023 年已经成为头条新闻,此外一些已经面世的 AI 会造成的其他危害,也经常被人权倡导者和研究人员指出,比如长期存在的不准确和偏见。
但他们也警告说,针对 AI 威胁人类生存的过度炒作,可能会导致人们对 AI 造成的其他更为现实的危机的关注不足,比如 AI 医疗软件对黑人和棕色人种患者的误诊比例更高等。
针对机器人战争等话题的讨论也越来越广泛,甚至已扩展到茶余饭后或课间聊天中,各机构以及各地方监管组织也开始针对人工智能发表更多的阐述和声明。
例如在 2023 年 4 月,包括美国联邦贸易委员会和美国消费者金融保护局在内的四个联邦机构发表联合声明,警告称人工智能“可能导致将非法偏见永久化,将非法歧视自动化,并产生其他有害结果”。
然而,目前尚没有针对如何监测或防止这些后果的具体方案的发布。而在科技行业中,针对人工智能导致的系统风险,AI 行业的从业者也可能将继续与立法者进行辩论。
关于《欧盟人工智能法案》的讨论,正是由于有关基础模型的争辩迟迟无法达成共识而被暂时搁置,而这场争辩很可能在 2024 年仍在不同的领域继续下去,关于人工智能的哪些用途应该被视为高风险领域、以及谁应负责管理这些风险的讨论也将继续下去。
在 2024 年美国将举行大选,此外许多其他国家也将举行大眩生成式 AI 和其他媒体技术,会导致人们对虚假和不准确信息产生强烈担忧。
对于社交媒体平台和政客们如何应对由生成式 AI 所导致的政治虚假信息而带来的新威胁,我有着很深的兴趣并持续管观察。
正如几个月前我在一篇报道中所写的那样,研究人员已经发现了它所导致的一些负面影响。
而不用怀疑的是:2023 年生成式 AI 的迅速发布,对 2024 年的选举将产生影响,而且可能是以一种戏剧性的、前所未有的方式产生。
技术的变化是如此之快,信息又常常以以如此迅速且出乎意料的方式在用户之间传播,以致于很难真正预测可能会发生什么。
出于以上原因,尽管包括政府和社交媒体公司在内的各界都努力加强 AI 的安全性并制定各种政策,但在 2024 年生成式 AI 的使用方式,对于 AI 监管方案的出炉将会至关重要。
支持:vantee
排版:罗以