美国国家安全局日前宣布成立人工智能(AI)安全中心,负责监督美国国防和情报部门人工智能能力的开发和整合。然而,在人工智能治理领域,美国是明显落后的,已经是人工智能全球治理的一块短板。
近期,美国国会举行了多场与人工智能立法有关的讨论。其中一场听证会中,谷歌、微软、特斯拉、OpenAI等科技巨头先后发表了看法,呼吁美国政府和立法机构尽快采取行动,解决人工智能治理中的原则性问题。
在今年的联合国大会上,人工智能治理是一个新兴的热门议题。英国副首相道登称,世界必须通过人工智能的压力测试,理解、治理、利用人工智能的潜力并遏制它的风险。不久前,联合国安理会首次举行人工智能问题会议,探讨人工智能治理的基本原则。人工智能给各国带来的风险和挑战也日渐突出。美国媒体指出,人工智能与新型诈骗的结合将成为各国面临的长期社会风险。美国联邦调查局称,人工智能将为犯罪组织提供可定制、可扩展的新型工具。
面对这些风险,各国已纷纷展开行动。6月,欧盟推出全球首部人工智能法案,对生成式人工智能企业提出更高的透明度要求。该法案要求此类企业在人工智能生成内容上增加标记,与训练内容提供者分享利润,严格限制算法被运用于非法领域和传播谣言。该立法体现出欧盟对于人工智能强监管的鲜明立场,也给其他国家提供了借鉴。7月,中国颁布《生成式人工智能服务管理暂行办法》,采取类似的标准,提出分类分级监管的治理原则。
与之相对,美国的相关立法进程显著滞后,仍未明确监管的基本取向。这让本来受益于这一宽松局面的美国科技企业也心无定数,担心监管的突然发力。华盛顿至今犹豫不决源于以下原因:
其一,美国不愿放弃在人工智能上的有利地位。在决策者看来,人工智能不仅是一种前沿技术,而且是决定美国能否在下一轮全球科技竞争中胜出的战略性技术之一。相比治理风险,美国更加关心自己在国际竞争和合作中的位置。竞争方面,美国不愿在确保自身技术领先地位前就严格限制该技术的发展。合作方面,各国在平衡人工智能的发展和安全中采取了不同路线,欧洲强调安全大于发展,印度、日本等则认为发展大于安全,不愿用立法约束产业进步。美国希望尽可能延后选边站队的决策,从而在塑造国际规则时预留更多谈判空间。
其二,政治极化让美国社会难以对人工智能风险形成共识。如今,政治极化在美国已经无处不在,深刻渗透到每个社会议题中。在人工智能治理上,两党虽然都认为风险客观存在,但治理方式却南辕北辙。民主党认为应当重点管控人工智能在造假、传谣领域的应用,尤其是强化社交媒体等中间传播渠道的责任。共和党则认为此类治理措施存在政治动机,会对共和党参选人不利。
其三,美国的政治制度不利于管控此类前沿技术。从以往类似管控经验看,即便政府和国会达成共识,美国仍然很难管住此类技术的风险源头。美国联邦和州拥有不同的监管机构,各州立法不同,给不法者寻找监管盲区套利带来空间。新一代人工智能技术具有更强的去中心化特征,技术研发已深入社会基层,显著加大了美国的监管难度。从这一角度看,可被恶意使用的人工智能技术更类似于枪支和大麻,未来很可能在美国泛滥成灾。
美国的迟疑正在给全球带来风险。作为全球人工智能技术研发最为领先的国家,美国的监管失位意味着人工智能可能变成一个缺乏教育和方向的“熊孩子”。美国的迟疑也拖慢了全球人工智能治理的议程,让越来越多的国家可能加入算法“军备竞赛”,延后其立法和治理进度。与其他技术不同,人工智能具有主动利用监管空白加快演化的特征,监管缺位的国家很可能成为危险人工智能技术的“营养液”,促使此类技术快速发展,进而对他国带来麻烦。
在人工智能治理上,各国都醒了但美国还在做梦。现在,各国应该把美国叫醒了。中美人工智能对话或许将成为美国的“闹铃”。作为在人工智能治理上起步更早的国家,中国可以让美国更清醒地认识到人工智能滥用对国际和平和各国民众带来的风险,探索管控人工智能跨境风险的路径。中美也可以借助对话共同推动全球人工智能的治理议程,探索与应对气候变化类似的时间表和路线图,并以此带动更多国家加入和参与,避免人工智能滥用成为全球下一个不可控的重大风险。(作者是中国现代国际关系研究院美国研究所所长助理)