展会信息港展会大全

当人工智能走上战场,“苏莱曼尼事件”或成常态
来源:互联网   发布日期:2020-08-17 07:25:16   浏览:18323次  

导读:当地时间 2020 年 1 月 3 日凌晨,时任伊朗伊斯兰革命卫队少将,卡西姆 苏莱曼尼于伊拉克巴格达国际机场被美军使用无人机刺杀身亡,时年 62 岁。 当人们都在关注世界局势的未来走向时,一家专注于将人工智能技术应用到军事领域的公司摄星智能科技有限公司(...

当地时间 2020 年 1 月 3 日凌晨,时任伊朗伊斯兰革命卫队少将,卡西姆 苏莱曼尼于伊拉克巴格达国际机场被美军使用无人机刺杀身亡,时年 62 岁。

当人们都在关注世界局势的未来走向时,一家专注于将人工智能技术应用到军事领域的公司摄星智能科技有限公司(下称:摄星智能)却从专业角度出发,对整个刺杀过程进行了模拟复盘,尝试将人工智能技术加入到整个刺杀行动当中。

假如 “人工智能” 参与刺杀

需要说明的是,以下内容仅是摄星智能公司的推演,不代表美军真的使用或未使用这些技术。

1. 情报获取

美军将从其谍报网(线人、信号情报、网络情报)获取的信息汇总到 AI 系统,通过技术手段进行甄别、筛选,最终得出结论:苏莱曼尼将于 2020 年 1 月 3 日 1 时左右抵达巴格达国际机常

2. 战法制定

以 “斩首” 苏莱曼尼为目的进行策略生成。

因为事发地点位于伊拉克,属美军势力范围,所以可以直接从科威特基地(距事发地点 530 公里)派出无人机进行事前的侦查行动,配合卫星数据进行拟态环境构建,确认“战场约束空间”。

当人工智能走上战场,“苏莱曼尼事件”或成常态

图 | 拟态环境构建

使用 AI 系统分析敌我、战场信息,根据预定时间制定具体的策略,包括出发时间、无人机型号、数量、分工、搭载弹量以及路径规划等等。

3. 方案执行

无人机于预定的时间到达指定地点,实时监测战场环境变化(温度、风力、亮度等),根据内线和生物识别等手段确认苏莱曼尼位置,并锁定其乘坐汽车。

通过 AI 系统实时生成计算无人机导弹发射策略,包括发射时间、角度、导弹数量等。使用人工智能技术协同激光制导、毫米波雷达制导,实施精准打击。

当人工智能走上战场,“苏莱曼尼事件”或成常态

图 | 苏莱曼尼所乘坐的车辆,可以看到车头部分完好,导弹精准命中了车身

4. 效果评估

AI 系统控制无人机再次勘察现场,如出现生命迹象则再次实施打击,确认目标死亡之后自动返航,顺便生成一份详实的行动报告,包含了对关键行为的解释和影像声音记录等。

整个推演过程,人工智能深度参与到了整个 OODA 循环(观察、调整、决策、行动)之中,它不带任何感情地完成了交代的任务,就像送了一次快递。

略显 “骨感” 的现实

摄星智能 VP 张亚琦对 DeepTech 补充道,目前人工智能还未被赋予如此强大的自主性,以苏莱曼尼事件为例,制定战法、最终决定发射导弹的还是人类。并且初步判定执行本次任务的 MQ-9 无人机也是通过人为远程遥控的方式控制。

当被问及人工智能技术应用在军事领域有何特点时,她这样说。

“军事领域所使用 AI 技术的内核同民用相比并没有本质区别,但 AI 想要在军事领域成功应用,所面临的挑战更多,要求更高”。

一方面,在军事领域没有那么多的数据可以供给模型训练。比如当只有几张模糊的图片时,如何提高识别的准确度是非常重要的工作和很大的挑战。

另一方面,应用在军事领域的人工智能所面对的是更加复杂的应用场景。以自动驾驶为例,民用的自动驾驶技术无非解决安全行车的问题,约束空间很校但军用自动驾驶,要涉及到更多维度的决策,抛开更加恶劣的自然环境不说,军车中 AI 能分辨敌我是最起码的要求。

再有,战场自古充满了尔虞我诈,必然会产生侦察和反侦察的问题。军事领域的人工智能必须具备伪装和甄别伪装能力。假如,我方情报人员得到一份敌方基地的视频,里面显示的军事部署对作战极为关键,CV 技术应该有能力去识别该视频的真假。

最后,由于军事的特殊性,人工智能犯错的成本极高,这不是民用能够相提并论的。总的来说,民用领域的 AI 是大数据,小应用。但军用领域是小数据,大应用。

当人工智能走上战场,“苏莱曼尼事件”或成常态

图 | 击杀苏莱曼尼的无人机 MQ-9

以上,是人工智能在信息获取方面的技术特点,而在信息加工如决策方面,人工智能目前还比较弱。

张亚琦说,由于人工智能技术真正兴起时间尚短,所以我国积累的真实作战数据几乎为零。而想要让人工智能参与到决策之中,需要海量的数据进行训练。

举个例子,在实验室中,我们可以设定有限的边界,然后给出相应的参数,计算机可以给到我们满意的结果,类似于红色警戒等策略型游戏中的 AI 模式。

但现实是非常复杂的,战场也是瞬息万变,一方面武器装备不可计算,另一方面人 / 人心更不可计算,我方不可计算,敌方更不可计算。以目前的水平,计算机所能给出的战法其实仅供参考,只有当战场棋盘上的所有棋子都支持 AI,计算机才能给出最优解。而这种情况的出现,需要现有科技水平有一个质变。

2019 年发布的《人工智能安全标准化白皮书》中得出了同样的结论:

当前人工智能产生突破的领域主要是专用人工智能,即弱人工智能。它缺乏自主意识,不能真正实现概念抽象、推理决策和解决问题。

人工智能正处于 “不能实用” 到“可以实用”的技术拐点,距离 “很好用” 还存在可解释性、泛化、能耗、可靠性、鲁棒性(健壮性)等诸多瓶颈。

“人工智能”+ 武器

目前,在将武器智能化这条路上,已经引发了大国间的军备竞赛。

这类武器一般称为自主武器,也称“杀手机器人”,指在无人干预的情况下独立搜索、识别并攻击目标的一种武器。能够拦截来袭导弹、炮弹的防御类武器可以看作自主武器的雏形。

读到这里,也许你的脑中会浮现出一些科幻片中的角色,如变形金刚、终结者、奥创等等。

当人工智能走上战场,“苏莱曼尼事件”或成常态

图 | 奥创

但现实中,碍于种种因素,这些杀手机器人的样子可能并不像人,但杀起人来毫不逊色。

对于自主武器,国际上存在很大的争议。

美国陆军训练及战略思想司令部长肯尼斯 罗斯列举了自主武器的优势:“机器不会劳累,它们不会闭眼,不需要在下雨时躲在树下或和朋友交谈…… 人类在 30 分钟后注意力就会急剧下降,但机器从来不会感到害怕”。

从技术角度来说,有朝一日的确可能设计出一种自主武器系统,它能够完全遵守攻击中的区分、比例和预防原则。并且由于机器人不会受到情绪或个人利益的影响,自主武器在战场上也许能够比人类更道德和更审慎。

但显然并不是所有人都认同其观点。

2018 年 5 月,Google 员工得知公司正与美国国防部合作,决定向一个名为 Maven 计划的军事项目提供人工智能支持。为表抗议,近 4000 人联署请愿书,多人辞职,他们认为:这些致命的工作应该交由人类,而不是算法。此后不久 Google 发布了 AI 七原则,宣布放弃将 AI 技术用于致命性武器。

2018 年 7 月,特斯拉 CEO 埃隆 马斯克领衔 2000 多名 AI 专家签署了一项协议,该协议的核心目的只有一个:承诺永不发展致命的 AI 武器系统。

2019 年 3 月,联合国发起了一项在法律层面 “禁止全自主武器” 的讨论,但包括俄罗斯、美国、英国、澳大利亚、以色列在内的五国政府均反对这一提案。

致命的吸引力

尽管国际舆论禁止自主武器的声音不绝于耳,但开发自主武器所带来的好处却让个别国家难以割舍。

假如一支步枪,每秒钟可以发射 10 发子弹。那么它由人类控制和 AI 控制将完全不具备可比性,AI 一秒内可以朝 10 个不同的方向分别开一枪,并且精准命中。而人类……

对于 AI 来说,这不过是一场游戏,而对于人类来说却是流血牺牲。

想象一下有机器士兵参与的未来战争吧。

他们是训练有素的士兵,是最高效的杀人机器,是最负隅顽抗的敌人

他们没有父母妻儿,没有伦理观念,他们无须动员,是最纯粹的战士

他们去中心化,任何单兵都能成为临时的指挥,想要打倒他们必须全部消灭

当这样一群杀人机器出现在科技水平没那么高的敌人面前,会发生什么呢?未来可能不会再有枪战、炮战、白刃战了。因为一切 “传统热武器” 在 AI 面前都不得不屈服。

AI 武器如此重要,没有国家愿意被落在后面,既然无法全面禁止,就只能选择全面开发。

美国兰德公司一份 2018 年的报告中举了一个例子,认为 AI 技术的发展甚至可能动摇大国之间的核战略平衡。

例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力,在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。

这个例子中针对核武的实现难度可能较高,但如果将 “核武” 换成敌方防御薄弱军事设施或作战部队,这不仅是一个可行方案,而且是多少国家梦寐以求的能力。

不管如何,人工智能技术的发展早已引发了新一轮的军备竞赛,并且其成果将在下一次大范围战争中展露。

最后,给大家看一段来自 Corridor 恶搞波士顿动力的视频,能同人类并肩作战的机器人,离我们或许并不遥远。希望技术的进步能为人类带来福祉,而不是毁灭。

-End-

参考:

https://www.icrc.org/zh/document/10-things-rules-of-war-Geneva-Conventions

http://www.cesi.cn/images/editor/20191101/20191101115151443.pdf

https://zh.wikipedia.org/wiki/机械伦理学

https://en.wikipedia.org/wiki/Lethal_autonomous_weapon

https://starsee.cn/


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港