图片来源@视觉中国
文 | 互联网法律评论
2024年2月15日,OpenAI推出了名为 Sora的文生视频大模型,60秒如同电影质感般的视频让已经熟悉OpenAI的民众和整个行业再次炸裂,并将AI视频生成推进一个全新的时代。
然而,AI的快速进步意味着我们将面临令人信服的深度造假、高度针对性的欺诈信息以及更加复杂的网络安全威胁。
2024年,全球有50多个国家/地区将举行大规模选举,包括美国、孟加拉国、中国台湾、巴基斯坦、印度尼西亚等,选民人数占全球人口的一半以上。专家警告称,2024 年将成为全球范围内前所未有的选举虚假信息泛滥之年。
就在Sora发布的次日,2月16日,在慕尼黑安全会议(MSC)上,亚马逊、谷歌、IBM、Meta、微软、OpenAI、TikTok、X等20 家参与构建或使用人工智能技术的科技公司共同承诺:努力检测和打击选举中的有害人工智能内容,包括选举候选人的深度造假。
20家AI领跑者“抗选举干扰”的联合承诺虽然慰藉了公众“真实选举”的期待,但同时也凸显未来挑战的复杂性。
图片:慕尼黑安全会议的科技公司“人工智能选举协议”页面
签署方包括:Adobe、亚马逊、Anthropic、ARM、ElevenLabs、谷歌、IBM、Inflection AI、LinkedIn、McAfee、Meta、微软、Nota、OpenAI、Snap、Stability AI、TikTok、TrendMicro、TruePic 和 X 。
01首例“人工智能造假干扰大选”案已在美国出现
1月下旬,美国发生了一起“最明显、可能也是已知的首次利用人工智能干扰美国选举”的案件。
据报道,有人使用人工智能模仿美国总统乔拜登的声音,并使用了他经常使用的口头禅“真是胡言乱语”(What a bunch of malarkey),用错误的暗示来阻止人们在美国新罕布什尔州的第一大城市投票。这条信息在2024年1月23日初选前两天发送给 5,000 至 25,000 名选民。而且这些电话错误地显示,来自凯西沙利文(Kathy Sullivan)的个人手机号码。
美国当局快速锁定了可能涉嫌这起案件的肇事者,两家德克萨斯州公司,Life Corporation和Lingo Telecom,美国联邦通信委员会和新罕布什尔州检察长都向这两家公司及负责人发出了禁止令和传票。
美国联邦通信委员会本月曾提议,明确将使用人工智能语音的主动机器人电话定为刑事犯罪;如果根据新罕布什尔州的《选民压制法》提出指控,该重罪可判处最高七年监禁。
调查才刚刚开始,但美国当局希望发出强烈信号,以阻止其他可能试图干预今年美国大选的人。
02如何使用人工智能技术恶意影响选举?
人工智能应用于改善竞选工作效率的场景比比皆是:
AI可以收集和总结选民的兴趣,并最终可能将这些优先事项与监管机构收到公众意见的具体问题相匹配;
AI可以帮助国家和地方层面政治家,让他们的评论对不同的受众更具说服力。
通过简化立法文本和跟踪代表的投票,AI可以增强公民对其民选官员正在考虑的复杂立法的理解。
然而,另一方面是,想要歪曲公众舆论的倡导团体或个人可能会在人工智能中找到盟友。恶意行为者可以利用ChatGPT 等人工智能驱动的程序,伪造出候选人或选民的视频、音频、图片、文字等,由于其生成速度快、数量巨大,将被用来在特定问题上形成公众共识,迫使立法者按照期望的议程采取行动。
下面是恶意行为者使用生成人工智能能力的具体威胁:
公众信任的破坏:虽然一些社区可能会被误导性的人工智能内容所欺骗,但其他社区将越来越不信任真实信息,从而加深“说谎则红利”并破坏对证据和事实的信任。
平台准备不足:某些主要和中型平台减少了“信任和安全”人员配置,并且对人工智能生成内容的预期数量和速度准备不足。封闭的消息服务可能是人工智能内容的主要渠道。
政策进展缓慢:美国大选前不会有全面的联邦监管,而且各州的权宜之计监管也各不相同;欧盟《人工智能法案》在2021年4月提出,目前仍需欧盟议会批准,如果如期获批,与生成式人工智能相关的某些规则最快也只能在2025年开始适用。
高质量的人工智能生成媒体:对于技术支持的系统和试图识别不真实内容的普通人来说,检测所谓的“深度伪造品”变得越来越困难。
高速大规模分发:人工智能系统可以快速、低成本地生成和分发大量内容。
消息定位和超本地化错误信息:人工智能工具可以针对特定群体、心理概况、超本地化地理位置甚至不同的个人微调消息。
自动化骚扰:人工智能可用于显著增加针对选举官员或公民领袖的骚扰内容的数量和针对性。
选举基础设施的网络安全:人工智能生成代码的预期进步可能会加剧恶意软件的挑战。
03打击恶意干扰选举,科技巨头能干什么?
2024 年慕尼黑安全会议(2 月 16 日至 18 日)聚集了来自世界各地的 450 多名高级决策者和思想领袖,其中主要包括国家元首、部长、国际和非政府组织的领导人讨论国际安全政策的紧迫问题。
随着信息战和网络攻击等威胁的增加,科技公司在国际会议上占据了越来越多的关注和空间。
慕尼黑安全会议组织者《双输?2024年慕尼黑安全报告》显示,过去一年,全球主要经济体,尤其是意大利、法国和巴西,对人工智能的担忧加剧;半导体和人工智能(AI)等战略技术的竞争将导致大国分裂科技行业,并招致福利损失;对人工智能和数据安全进行紧迫性地全球监管,可能会成为技术安全化的牺牲品。
图片:《双输?2024年慕尼黑安全报告》封面
因此,科技公司宣布自愿采取“合理的预防措施”,签署了《在2024 年选举中打击人工智能欺骗性使用的技术协议》。
签署者在协议中表示,愿意共同合作检测技术等工具,以发现、标记和揭穿人工智能操纵的公众人物图像和音频的“深度伪造”;更多地公开如何在平台上打击人工智能生成的虚假信息。
八项具体承诺分别是:
1. 开发和实施技术以减轻与欺骗性人工智能选举内容相关的风险,包括适当的开源工具;2. 评估本协议范围内的模型,以了解它们可能在欺骗性人工智能选举内容方面带来的风险;3. 寻求检测该内容在其平台上的分布;4. 寻求适当解决在其平台上检测到的此类内容;5. 培养跨行业抵御欺骗性人工智能选举内容的能力;6. 向公众提供有关公司如何解决该问题的透明度;7. 继续与多元化的全球民间社会组织、学者合作;8. 支持提高公众意识、媒体素养和全社会复原力的努力。
值得一提的是,X(推特)的加入是此次协议的惊喜之一。因为马斯克在接管推特后大幅削减了内容审核团队,并将自己描述为“言论自由绝对主义者”。针对这次慕尼黑会议的协议,X的首席执行官表示:“X 致力于发挥自己的作用,与同行合作对抗人工智能威胁,同时保护言论自由并最大限度地提高透明度。”
舆论认为,该协议在很大程度上是象征性的,而且并未包含“禁止或删除深度造假产品”。承诺的模糊性和缺乏任何约束性要求可能有助于赢得众多公司的支持,但令寻求更有力保证的倡导者感到失望。
有民间社会团体指出,这种“自我监管”并不值得信任,这份承诺不能解决使用社交媒体平台和广告模式恶意影响选举。
04 道阻且长
误导性内容,尤其是与选举有关的内容,并不是什么新鲜事。但在人工智能的帮助下,现在任何人都可以快速、轻松且廉价地创建大量虚假内容。
从本质来说,这并不仅仅关乎“选举”,而是人工智能“威胁着我们区分事实与虚构的能力”。当你开始怀疑所有看到的内容是否真实时,AI就完全摧毁了现实的基础。
平台的计算机生成内容检测系统是否能够跟上技术的进步,是值得担心的。制定法律和监管措施来限制选举中的人工智能是一个良好的开端,但这些努力的有效性将取决于科技公司、政府和民间社会之间的持续合作,以适应不断变化的威胁并确保数字时代民主机构的弹性。
随着该协议从承诺转向实践,真正的考验将在于,我们是否有能力培育一个更安全、更知情的公共领域,在这个领域可以在不损害法治原则的情况下,充分利用人工智能的潜力。