展会信息港展会大全

"机器杀手"将出现:杀人还是救人
来源:互联网   发布日期:2016-04-13 16:16:19   浏览:16106次  

导读:4月13日,科幻小说层出不穷,如果我们非要找出一点可以称之为套路的东西的话,那就是大多数现代科幻小说的剧情总会不可避免地走向一个共同的终极:机器人自我觉醒了,然后下决心要毁灭它们的造物主人类。 但随着诸如人工智能这样的未来技术的不断发展成熟,...

"机器杀手"将出现:杀人还是救人

4月13日,科幻小说层出不穷,如果我们非要找出一点可以称之为“套路”的东西的话,那就是大多数现代科幻小说的剧情总会不可避免地走向一个共同的终极:机器人自我觉醒了,然后下决心要毁灭它们的造物主——人类。

但随着诸如人工智能这样的未来技术的不断发展成熟,我们或许已经开始逐渐意识到这样的剧情将已经脱离了它的宿主——书本——正真真切切地在向我们走来。

我们开始意识到“机器杀手”的出现或将不可避免,若是承认了这一点,我们所应该做的就是要想好该如何去面对它。

当我们谈论“机器杀手”时,我们常常会习惯于想当然地抵制它,但这篇文章将站在人类利益的角度,为“机器杀手”作合理的辩护。若是我们能跳出惯性思维的限制,进行更深入的思考,小编以为易友们在读完这篇文章后,或许将发现:“机器杀手”的出现也或将让我们的世界变得更安全、更宜居。

需要首先澄清的一点是,当我们在谈论“机器杀手”的时候,我们指的是那些拥有自我决策能力,可以自行决定开火与否的军用机器人系统。目前,各国的军队都或多或少地装配了各式各样的机器人,从藏匿于云端的无人机到恪守于地面的排爆机器人,应有尽有。虽然它们中的一些已经配备了武器,但只有人类来能才决定它们是否开炮。

但若是将生死攸关的决策权从人类手中转交至自动机器系统,必然会引起一些人的忧虑。不得不承认的是,反对“机器杀手”的声音比比皆是,毕竟机器人不像人类,它们没有同情心,不会陷入道德上的困惑,不会在意也不知关心,没有“良心”,也不会考虑要为自己的决策负责,它不具备任何我们希望在一个人类士兵身上看到的那些情感因子,这些情感因子在人类人性的驱使下,往往能柔化最残酷的士兵。

基于这些原因的思考,越来越多的组织和国家正积极督促一些政权像限制使用化学武器和地雷那样,限制发展“机器杀手”。4年前,人权观察组织(Human Rights Watch)曾发表了一篇抵制研发自动化武器系统的综合报告,而本周,人权观察组织又发布了一则新的备忘录,呼吁国际政权禁止“发展、制造和使用全自动武器”。

从表面上来看,这样的呼吁似乎再正确不过了。当我们谈论“机器杀手”时,我们脑海里所浮现出来的画面,很可能要么是我们今天常见的机器人那样笨拙形象,要么就是像电影《终结者》中的施瓦辛格所扮演的T-800那样酷炫形象。随着人工智能技术超乎想象的发展,不出二三十年,我们或许就能看到它的真面目了。

若要为“机器杀手”辩护的话,理由其实也很简单:人类的决策水平实在是太糟糕了。任何我们害怕机器人会干的事,其实我们人类都已经干遍了。人类士兵会有疲惫和疏忽的时候,也会有困惑和迷茫的时刻,并且还常常容易暴怒,而所有这些情绪都容易催生出错误的决策,包括滥杀无辜的民众。当碰到需要判别一种恐吓究竟是装腔作势,还是真实的威胁的时候,AI目前的表现还是远远不及人类的,但它要赶超人类也只是时间的问题罢了。

但在直觉上,二者的表现又是如何呢?那些基于情感直觉,能为肉眼凡胎的人类作出可靠判断的第六感,机器人能掌握的了吗?其实所谓的直觉,只不过是在我们的潜意识在接收五官所传来的数据的那一瞬间,将我们现有的知识同以往的经历相结合,所给出的判断。

当一名士兵看到一位夹克某处高高隆起的男人迎面走来的时候,他会立马处理所有已知的信息,然后判断出这个男人是否是个潜在的威胁。

在不久的未来,在绝大多数情况下,机器人处理所有这些信息的效率将远远高于人类,并且,即便工作量再大,它们也不会感到疲惫,不会害怕,不会生气。当机器人实现这一超越的节点真正到来的时候,如果我们的军队没有部署“机器杀手”,就意味着将牺牲更多的平民和战士。

我们可以再来考虑一下无人驾驶汽车。许多人对让计算机开车带我们逛街的想法常常会感到惴惴不安,但随着无人驾驶技术的日渐成熟——越来越多无人驾驶技术开始商业化,比如已经出现在一些车辆上的自动停车系统和自适应巡航控制系统——越来越多的人将乐意于将车轮的控制权转交至计算机。

越来越多的人开始意识到无人驾驶汽车所想要解决的核心问题是什么,那就是彻底告别我们那些危险的不良驾驶习惯。

虽然近些年来,交通事故发生的数量有所回落,但数字仍然惊人:在2014年,有超过32000名美国人死于车辆相撞。但一旦我们都开上了无人驾驶汽车,交通事故的死亡率必将骤然下降,甚至将趋于零。

但我们也无法否认,机器人系统也并非完美无瑕,它们也必定会有个别出错,或是找不到能避免悲剧发生的选择的时候,甚至会有人因此而丧命。

对于那些反对无人驾驶汽车的人来说,他们有很好的特例可以作为阻碍无人驾驶技术发展的绊脚石,比如让我们设想一下,如果一辆无人驾驶汽车突然带着我们跳下了悬崖会有多恐怖。

同样,反对自动化武器系统的人业可以举出类似的例子,比如自动化武器系统的程序出了问题,误杀了你爱的人,这将多糟糕。

这些当然都是一些令人不寒而栗的想法,但提出这些想法的人也忽略了同样骇人的另一种可能:每天都有大量的人死在老司机的手上,而军队在杀无辜时也不会手软,所有的这些悲剧都源自于人类不靠谱的决策能力。

或许,比起被机器人误杀的特例,我们更愿意接受可能会造成更多伤亡的人为行动,因为它可控的,能我们感到更安全。这样的选择源自于人类的天性,我们无权作过多的谴责,但通过这篇文章,我们想传达的是:我们出于人类天性的选择,并不一定就是最正确的选择。(止水)

via:theweek


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港