来源:军事高科技在线 作者:文力浩 、龙坤
导语
前段时间,环球时报总编胡锡进先生有关建议中国扩充核军备力量的言论引发热议,也将人们的目光吸引至对核战略的广泛关注。核武器是目前世界上最具破坏力的武器,也是大国战略威慑的基石,针对人工智能时代核安全发展这一问题的讨论和研究十分重要且紧迫。《人工智能网络:对军事对抗升级、威慑和战略稳定的影响》(The AI-cyber nexus: implications for military escalation, deterrence and strategic stability)一文由美国战略专家詹姆斯约翰逊(James Johnson)发布在2019年的《网络政策杂志》(Journal of Cyber Policy)上。作者审视了人工智能时代的核安全态势,在人工智能网络逐渐应用于军事领域尤其是核领域的背景下考察分析了人工智能增强下的网络攻防能力对大国核安全产生的潜在影响,为我们理解和探索新时代大国核战略提供了有益启发,故将论文的主要观点总结分析如下,并做简要评析,以飨读者。
▲图:《网络政策杂志》封面
01
人工智能遇上核武器系统
考虑到文艺作品中对人工智能(AI)的夸张描述,人们很容易夸大人工智能在军事领域的发展部署所带来的机遇和挑战。实际上,“人工智能”一词目前并没有公认的定义。如果将其理解为一个通用术语,可以认为人工智能是一类用于提高自动化系统性能以应对各种复杂任务的技术。因而在军事方面,作为先进武器系统的潜在推动力和力量倍增器,人工智能更类似于电力、无线电、雷达、情报、监视与侦察(ISR)这类支持系统,而不是“武器”本身。像这些支持系统一样,人工智能在战略上至关重要但同时十分脆弱,它本质上是一种跨领域技术,并且其效力发挥依赖于装备实体。就人工智能在核领域的应用来说,主要包括:对核武器的指挥、控制、通信和情报(C3I)架构的质量改进;加强导弹和防空系统的目标捕获、跟踪、制导以及识别能力;从质量上优化核导弹的运载系统,帮助核运载系统更自主、更精确地运行,并且具备更强大的抗干扰和抗欺骗能力。同时,人工智能增强下的核指挥和控制系统可以有效缓解“战争迷雾”中人类战略决策固有的许多缺陷,比如对沉没成本的敏感性、风险判断的扭曲、认知启发陷阱(cognitive heuristics)和低效的集体决策。然而作者提醒,目前应用于核领域的人工智能网络一旦被对手攻击利用,核武器这把“利刃”有可能丧失威慑作用,甚至刺向自身。
▲图:传统反导系统工作示意图
02
人工智能与网络的结合将增大核战的风险
鉴于人工智能技术的依赖性和支持性,作者援引Boulanin的观点认为,人工智能技术的最新进展将加剧现有风险而不是产生全新风险。经由新一代人工智能增强的网络能力,将增加因核武器与战略无核武器混合使用以及战争速度加快导致的偶发性冲突升级的风险,从而提高爆发核战争的可能性。具体表现有以下几点。
1.模糊网络攻防界限
一方面,人工智能可以增强军队应对网络攻击的防御能力。人工智能网络防御工具(counter-AI)旨在识别网络行为模式的变化、自动检测软件代码漏洞并应用机器学习技术测试网络活动的偏差和异常,这些可以帮助军队获得更强大的预防网络攻击能力。另一方面,自主性本身也可能会增加军队应对网络攻击的脆弱性。诸如使用恶意软件操纵、欺骗自主武器行为识别系统一类的网络攻击,相对于防御和反击成本极低,并且由于缺乏世界公认的处理框架和对构成对抗升级行为的共识,网络攻击行为作为一个信号可能难以被自主系统正确识别,甚至将其误认为是恶意攻击。即使能够及时准确地识别此类操作,其背后的动机仍可能含糊不清或被误解。这客观上加剧了袭击国家和被袭国家间的矛盾对立。因此,虽然人工智能可以提升网络战能力,进而强化国家威慑力,但这同时也会刺激对手主动对国防系统尤其是核武器系统进行攻击,从而加剧了安全领域的能力脆弱性悖论(capabilityvulnerability paradox)。
2.增加战争决策压力
针对核武器系统的网络攻击究竟构不构成发动核战争的充分条件?一旦核武器系统遭网络攻击而瘫痪,给予决策者判断态势的时间将十分紧张,是否决定使用核武器的压力可能会增大。尤其是在一个国家保持发射警告态势的情况下,遭到人工智能增强下的网络攻击,核武器系统几乎无法进行有效探测并且发出警告信号,更不要说在发起核打击的极短时间内进行身份验证以及判定责任归属了。根据公开消息,北美航空航天防御司令部(NORAD)在不到三分钟的时间内就可以通过早期预警系统评估和确认即将发生核攻击的初步迹象,这从侧面说明预警系统失灵留给防御方的处置时间多么短暂。缩短的决策时间可能会使政治领导人承受巨大压力,迫使其依据不完整甚至是错误的信息在危机期间做出发动核战争的决定。
▲图:核武器被比喻为地球“重启键”
3.刺激先发制人策略
作者指出,中国已将针对核指挥、控制和通信(C3I)系统的网络渗透视为国家最高安全威胁之一,即使攻击者的目标仅限于网络间谍活动。相比之下,俄罗斯倾向于认为其C3I核网络相对独立,因此不会受到网络攻击。但不管这些差异如何,由人工智能增强的先进网络工具可能被用来威胁甚至破坏国家核力量的可靠性,这一行为将极大破坏战略稳定,导致核威慑力的潜在削弱。因此在危机或冲突中,即使人工智能增强下的网络攻击能力的有效性并不确定,也将大大降低双方的风险承受能力,增加双方“先发制人”的动机。一个在人工智能增强下的各国间良性竞争,需要守成大国与新兴大国之间具有信息对称性,并对双方的人工智能网络攻击手段的准确性和可信度有着共同信心。但现实是,在一个竞争激烈的战略环境中,一个国家往往倾向于对他国意图作最坏设想,面对对手依靠人工智能实现愈加强大的针对核武器系统的网络攻击能力,“先下手为强”似乎成了自保的唯一“可靠”手段。
4.滋生深度伪造风险
人工智能网络技术的发展还为煽动敌对国家间的冲突提供了新途径。例如,国家A借助代理黑客使用生成对抗网络(Generative Adversarial Networks,简称GAN)制造“深度伪造”(Deepfakes)视频或音频材料,描绘国家B的高级军事指挥官密谋对国家C发动先发制人的打击。然后,这段“深度伪造”视频被故意泄露给国家C的人工智能增强下的情报收集和分析系统中,引发了国家C的战略误判并采取核对抗手段。国家B在这种情况下将不得不以同样的对抗方式回应。目前,在新兴的“深造伪造”军备竞赛中,检测软件的发展速度远落后于进攻性软件,“开发用于伪造内容的技术的人要比检测它的人多100到1000倍”。这给信息接收系统的“反人工智能”功能和其他故障安全机制提出了重大挑战。
▲图:“深度伪造”成本低,但影响力巨大
03
维护人工智能时代的核稳定须强化国际合作
为避免各国在人工智能网络战领域的军备竞赛与核武器结合后演变成毁天灭地的灾难,作者呼吁国际社会携手应对人工智能对大国核战略的影响与冲击。
1.加强各方在这一领域的研究、讨论与对话
第一,为减轻人工智能网络安全关系所带来的不稳定和对抗升级,大国间有必要增加对话以建立信任。在国际讨论中,至少应包括外交官和军事领导人(特别是来自中国、俄罗斯和美国的领导人)、行业专家、人工智能研究人员和多学科学者。军事大国间应尽快建立一个治理、规范机器学习增强下网络能力使用的国际框架,并在监管方面开展合作。第二,智库、学术界和人工智能研究专家应集中资源,研究人工智能网络对一系列潜在安全问题的影响,比如:人工智能偏见对未来军事应用的影响;如何应对可能出现的通用人工智能;如有需要,政府可采取步骤,修订现有的法律定义以解释人工智能扩散所造成的潜在损害,这些定义包括黑客攻击、数据注毒和信息欺骗等。
2.研究和实施网络安全保护措施
研究和实施一些以网络安全为中心的措施可以预防和减轻人工智能增强下网络能力提升,特别是涉及安全关键的核系统所带来的一些风险。首先,在解决计算机安全时的成熟经验可以被应用于开发人工智能上,例如可以采取红蓝对抗的方式帮助工程师和操作员更好理解并执行网络防御方案、提高进行防御性操作所需的技能。其次,全球防务界应积极投资开发人工智能网络防御工具、以人工智能为中心的安全硬件以及其他故障安全机制,以帮助降低因人工智能网络攻击带来的冲突升级风险。最后,与这些措施相关的一些问题还需要进一步探讨,包括:现有工具在多大程度上可以有效抵御人工智能系统中的漏洞?如何为跨多个军事领域的人工智能系统量身定制防御工具?在军事人工智能系统中是否有等同于“补丁”的功能?什么样的政策可以激励并确保对军事领域的现有硬件进行有意义的改革?
▲图:协商合作应成为国际共识
04
结语
武器装备无人化和智能化是未来军队发展的必由之路,而核武器系统似乎没有理由不搭上新一轮军事技术革命的快车。在美国退出《中程导弹条约》、无意续签《削减进攻性战略武器条约》的今天,世界“核军备竞赛”大有重启势头。然而,“核武器+人工智能”究竟是更多地增强了大国威慑力还是更多地把人类置于了灾难边缘?目前来看,这一前景并不明朗。在人工智能、大数据、云计算等技术迅猛发展的当今时代,我们应当提前研究和预判其中的风险,并进行前瞻性预防和化解。应当看到,人类文明的发展大势只能是走向互信和合作,固守冷战思维只会使人类在猜疑与对抗中一步步走向自我毁灭的境地。特别是对待掌握地球“重启键”的核武器这一重大问题,人类真的需要树立命运共同理念,用合作替代对抗,用信任消弭偏见,才能共同塑造人类更美好的明天而非走向共同毁灭。
注:原文来源网络,文中观点不代表本公众号立场,相关建议仅供参考。