当前,人工智能(AI)无疑是全球可持续发展的强大推进技术。在研究AI对可持续发展目标的贡献时,我们发现大部分的努力都集中在AI与高质量教育以及AI与医疗保健上,而其他许多重要的主题,如生物多样性、气候行动、AI与和平,却鲜有关注。然而这些都是事关人类未来的基本问题,至少与教育和医疗保健同等重要,各国政府应该共同努力解决。
军事人工智能、维护和平与安全的人工智能是密切相关的两个话题,但在很多重要方面存在根本性不同。促进国际和平的人工智能是实现可持续发展目标的重要支柱,应该被积极用以降低安全风险。从和平与安全的角度出发使用AI,可以用来识别不同国家和政治实体之间的虚假信息和误解,使用AI进行网络防御,禁止使用人工智能进行网络攻击。但无论是出于军事还是政治目的,都不应使用AI制造虚假信息。AI应该被用来连接人类与文化,而不是制造隔阂。这就是为什么我们创建了一个人工智能赋能的文化交互引擎,找出不同的联合国教科文组织世界文化遗产之间的共性和多样性。从这些世界遗产中,我们发现文化并没有那么割裂,存在着许多的共性。而这些共性是重要的根基,能够帮助我们欣赏和理解彼此,甚至学习互鉴。
目前的人工智能,包括最近的生成式人工智能,其实都是信息处理工具,还不具备真正的信息理解能力,不是真正的智能。因此它们无法代替人类做决策。例如,虽然世界尚未就致命性自主武器系统达成可操作的共识,但至少不应直接用AI为人类作出生死决定。充分的人机交互应在有效、负责任的控制下进行。人工智能也不应用于自动化的外交任务,尤其是不同国家之间的外交谈判。因为它可能会利用甚至扩大人类的局限性和弱点(如欺骗、不信任),带来巨大的、甚至灾难性的风险。生成式人工智能总是以“我认为”和“我建议”一类的话语来与人类交流,这其实很可笑、很有误导性,也是不负责任的。因为现在的AI模型并没有自我。AI永远不应该假装是人、取代人类或误导人们。人工智能可以协助人类,但不能代替人类做决策。
我们必须确保所有人工智能赋能的武器系统都在人类充分、有效和负责任的控制之下。例如,需避免人机交互中的认知过载。我们必须防止AI赋能的武器系统的扩散,因为相关技术很可能被恶意使用或滥用。
无论是短期还是长期的人工智能,都有威胁人类的风险。因为短期内我们无法避免人工智能利用人类的弱点。至于长期的人工智能,我们还无法给出任何实际的理由为什么超级智能应该保护人类,而找到这个问题的答案可能需要几十年的时间。我们需要改变彼此之间,以及与其他物种、生态、环境的互动方式,这需要整个人类社会共同努力。
这些短期和长期的挑战决定了我们不太可能在今天就解决AI赋能和平与安全的问题。但进行这个讨论必然是一个良好的起点。为应对未来短期和长期的挑战,可以在联合国安全理事会层面建立一个AI赋能和平与安全工作组。因为专家层面的交流可以更为灵活、科学,更有可能在科学和技术方面达成共识,更有可能为理事国做决策提供科学指导和支持。
AI的创造是为了帮助人类解决问题,而不是创造更多的问题。曾经有个小男孩问过我,除了在科幻小说中,现实是否可能用AI辅助的核弹来炸毁正在袭击地球的小行星,或者改变其轨道以避免与地球相撞来拯救我们的生命。我认为这个想法目前来看科学上可行性并不高,甚至可能有相当大的风险,但至少它是使用AI来解决人类的问题,比起用AI赋能的核武器攻击我们要好得多。
包括联合国安理会常任理事国在内的许多国家已经宣布了AI安全和治理的政策,或是发表了观点,我们可以看到其中有许多共性,这是国际共识的重要体现,但还远远不够。在国际层面,联合国需要发挥核心作用,建立AI发展和治理的框架,确保全球和平与安全。作为人类命运共同体,各国需要一起努力建立好这个议程和框架,不使任何一个国家掉队。(作者是中国科学院自动化研究所研究员、人工智能伦理与治理中心主任。本文基于作者在7月18日联合国安全理事会第9381次会议“人工智能:国际和平与安全的机遇与风险”上的受邀发言)