1950年,美国著名科幻作家艾萨克阿西莫夫出版了他的著作《我,机器人》。在这部著作里,一共有9个故事,它们拥有一个共同的主题,那就是人类和机器人的关系。
在这里,阿西莫夫提出了著名的机器人三定律:
第一定律:机器人不可以伤害人类,或者看见人类在面临威胁时袖手旁观;
第二定律:在不违背第一定律的前提下,机器人必须服从人类下达的指令;
第三定律:在不违背前两条定律的前提下,机器人要尽量保护自己的生存安全。
这三条定律非常著名,以至于到了今天,已经是人类在开发机器人时所不可回避的话题。甚至有人还在此基础上,提出了机器人第零定律:机器人必须要保护整个人类种族的利益不受破坏,这一条定律的优先级要高于原来的三条。
在阿西莫夫的年代,机器人在极大程度上还停留在科幻的层面。如今,机器人已经开始逐渐走入我们的生活,人工智能已经在许多方面参与到了人类社会进步的进程中。随着人工智能越来越发展,它们是否可靠的问题也再一次成为了科学家们热烈讨论的话题。
庆幸的是,现在的人工智能发展还相当有限,它们更多地是在人类生活和科技发展中充当人类的帮手。然而,随着人工智能不断进步和突破,它们是否还会忠诚于人类呢?
尽管有阿西莫夫提出的机器人三定律,但这毕竟是人类一厢情愿的规则。一旦人工智能有了自己的思维,它们是否愿意遵从人类制定的规则呢?
不知道。因此,除了通过程序输入这样的法则来约束人工智能以外,科学家们必须还有其他的方法来防止最坏的情况出现。可是,科学家最近却给出了一个悲观的答案。如果未来超级人工智能真的想要反叛人类,我们很可能将束手无策。
首先的一个问题在于,想要控制一个智能水平远远超过人类的机器人,就要利用我们能够分析的方式来模拟这个超级人工智能。这又是矛盾的,既然我们都无法理解,又谈何模拟呢?
今年年初的时候,《人工智能研究杂志》就发表了科学家的一项研究,论文中就指出:如果我们都不清楚超级人工智能会出现什么样的情况,那么就算制定了所谓的机器人三定律来阻止它们伤害人类,最终也只能是徒劳无功。当机器人的内部系统超过人类程序员的能力范围时,人工智能恐怕就不会再受到人类的限制了。
他们在论文中写道:“伴随着超级人工智能诞生的,还有一个特殊的问题,它与以往在‘机器人伦理’的大旗之下所研究的问题大相径庭。其原因在于,一个超级人工智能势必是狡兔三窟,因此很有可能偷偷地调用大量自然,来实现它不可告人的目的,因此可控性更是无从谈起。”
他们之所以给出这个悲观的言论,很大程度上是基于被称为计算机之父和人工智能之父的艾伦麦席森图灵在1936年所提出的停机问题。这个问题的核心,就是思考一台机器或者说一个程序是否会在有限的时间内结束运行,抑或是永远不停地陷入死循环地去尝试停止下来。
我们可能会在开发人工智能的时候,给它输入一段程序,比如它做任何伤害人类甚至整个世界的行为时,后台就可以将它关闭。但实际情况是,这样的方法未必就能奏效。从数学的角度来考虑,这个程序的奏效与否,是无法完全确定的,这就意味着人工智能仍然有毁灭人类的可能性。
德国马克斯-普朗克人类发展研究所的计算机科学家Iyad Rahwan说道:“这意味着,控制它们的程序是无效的。”
我们可以在研发超级机器人的时候,给它输入一些道德的准则,就像告诉小孩子什么该做、什么不该做一样。但正如上面所说的,这样的道德约束未必能够真的起作用。也有人提出观点认为,最可靠的办法或许就是从源头上解决问题限制人工智能的能力,比如设计一套预案,在必要的时候切断人工智能的一些网络功能,从而限制其能力。
这就是矛盾的所在:我们一方面希望人工智能可以在最大程度上给我们提供便利和服务,另一方面又心存戒备地防止它们反叛而限制能力。用咱们的一句老话来说就是:不给马吃草,还想让马跑。
不得不说,在人工智能方面,人类确实在做着一些超出自己能力范围的事情。很多人都在为超级人工智能的出现而担忧,然而又不知道它究竟何时会出现。
马克斯-普朗克人类发展研究所的另一位计算机科学家Manuel Cepian警示我们说:“那种可以操控整个世界的超级人工智能机器,听起来感觉是科幻小说,但现在已经出现了一些机器,其学习独立完成某些任务的能力甚至超出了开发者的理解范围。所以,关于他们是否会脱离人类的控制并威胁到人类的安全的问题,已经摆在我们面前了。”
我们知道,人工智能确实在有些方面胜过人类,比如进行一些科学发现,或者是阿尔法狗的围棋水平等等。但关于这些,我们都知道它们是如何获得这种能力的。但如果人工智能真的以人类未知的模式学习了新的能力,这就确实超乎想象了。
关于人工智能反叛的科幻电影,我们也听说过不少了,这确实也是人们担心的焦点问题之一。但人工智能的发展确实又是必不可少的,人类需要它们的帮助。如何调和这两件事之间的矛盾,还有待于科学家们的进一步探索了。