谷歌前首席执行官Schmidt认为,AI就像核武器一样。你同意这个说法吗?
把AI比作核武器,你觉得合理吗?
谷歌前首席执行官Eric Schmidt将人工智能比作核武器,并呼吁建立一个相互保证的威慑制度。
类似于核武器的那种。
人工智能和核武器一样危险吗?
7月22日,Schmidt在阿斯彭安全论坛「关于国家安全和人工智能」的小组讨论中,谈到了人工智能的危险性。
在回答有关科技界道德价值的问题时,Schmidt表示,早期他自己在谷歌公司时,也曾低估了大数据的力量。
时至今日,他呼吁,科技应该要更好地符合其服务对象的伦理和道德。然后他就在人工智能和核武器之间做了一个有些出格的类比。
Schmidt预计,在不久的将来,中国和美国需要围绕人工智能做点什么。
AI和机器学习一样,都是令人印象深刻且经常被误解的技术。
在很大程度上,它并不像人们认为的那样聪明。它可以制作出杰作级的艺术品,甚至在「星际争霸II」中击败人类。
然而,试图让它完成更复杂的任务,如驾驶汽车穿越大城市,短期内还实现不了。
Schmidt想象,在不久的将来,中国和美国都会有关于AI的安全方面的担忧,迫使两国围绕人工智能达成一种威慑条约。
他类比了20世纪50年代和60年代,当时外交部门围绕地球上最致命的武器精心制定了一系列控制措施。
但是,在全世界通过《禁止核试验条约》、《第二阶段谈判协议》和其他具有里程碑意义的立法的地步之前,广岛和长崎的已经被毁灭了。
美国在二战结束时用原子弹摧毁了两个城市,杀死了数以万计的人,并向世界证明了核武器的恐怖力量。
我们可以说,没有美国这一出,人们通过上述这些条约和协议的动力可能就不会那么强了。
随后,俄罗斯和中国的政府便急于获得这种武器。
目前,人类与这些武器共处的方式是通过一种叫做「相互确保摧毁」(MAD)的机制。这是一种威慑理论,内容是如果一个国家发射核弹,其他国家也将进行反制发射。
虽说人工智能还没有证明自己有接近核武器的破坏力。但身居要职的人害怕这项新技术,而且,通常是出于一些不那么正确的原因。
甚至,还有人建议将核武器的控制权交给人工智能,他们认为,理论上AI能比人类更好地决定武器的使用。
这不让身居高位的人更害怕了嘛。
人工智能的问题不在于它具有核武器的潜在破坏力,而在于人工智能的好坏只取决于设计它的人,他们反映了创造者的价值观。
这也就是典型的「垃圾进,垃圾出」的问题。种族主义的算法造就了种族主义的机器人,所有的人工智能都带有其创造者的偏见。
AI是其创造者的反映
无独有偶,Demis Hassabis,DeepMind的首席执行官,就这个话题可能比Schmidt还更了解一点。
Hassabis训练的人工智能正在击败「星际争霸II」的玩家。7月和Lex Fridman播客的采访中,Fridman问Hassabis,像人工智能这样强大的技术应该如何被控制,以及Hassabis本人如何避免被这种强大的力量所腐蚀。
Hassabis表示,「人工智能是一个很庞杂的想法。谁来建造,这些人信仰哪种文化,他们有什么价值观等等,这些都很重要。人工智能系统会自己学习......但系统中会有该系统创造者的文化和价值观的残留物。」
人工智能是其创造者的反映,它不可能在120万吨的爆炸中夷平一座城市。
除非人类教它这么做。
参考资料:
https://www.vice.com/en/article/3adbwy/eric-schmidt-thinks-ai-is-as-powerful-as-nukes
编辑:拉燕