现在,你可能不会对关掉苹果的虚拟助手Siri、亚马逊的Alexa或微软的Cortana而产生疑虑。这些应用仅仅是模拟人类助手,但显然不是人类本身。我们意识到,未来可能在复杂的软件影响之下,已经没有人在家了。
但是人工智能正在迅速发展。在不久的将来,尽管它们是由金属和塑料制成,而不是由肉和血组成的,我们仍然有可能发现我们制造的智能机器人拥有类似于人类的思想和情感。当这种情况发生时,我们如何对待我们的机器将变得至关重要。哲学家和学者们已经对这方面开始设想,未来机器人和智能机器或许应该得到某种权利的时代。
但这些并不一定全是人权。加拿大多伦多约克大学的哲学家克里斯汀· 安德鲁斯说,“如果你有一台能够像人类一样自主行动、或者有自我意识的电脑或机器人,我想我们很难说它不是一个人。”
这就引出了一系列难题。我们应该如何对待有一定意识程度的机器人呢?如果我们确信人工智能有能力去承担情感上的痛苦,或者真实地感到痛苦,那我们该怎么看待它?那么把它关起来就等同于所谓的谋杀吗?
机器人vs猿类
在当今社会里,讨论这个问题前,我们可以比较动物当今能够拥有的权利。动物权利倡导人士一直在推动重新评估某些动物的法律地位,尤其是类人猿。像珊瑚泉、佛罗里达的非赢利的非人类权利项目组织认为黑猩猩、大猩猩和红毛猩猩都应该被当做是拥有自治权的人类,而不仅仅是动物园里的财产。
该组织法律团队的负责人史蒂芬·怀斯表示,无论是否存在,同样的逻辑也适用于任何一个拥有自治能力的实体。他说,如果有一天我们有了有感知能力的机器人,“我们应该对他们持有同样的道德和法律责任,就像我们正在争取的对非人类的动物权利的正式赋权。”
当然,决定哪些机器值得我们设定道德考虑是很困难的,因为在我们经常把人类的想法和感觉投射到无生命的实体上之后,最终会导致同样的去同情那些没有想法或感觉的实体。
想想Spot,一个由波士顿动力公司开发的一种类似犬类的机器人。今年早些时候,总部位于马萨诸塞州沃尔瑟姆的科技公司发布了一段视频,视频里展示员工在踢这只四脚的机器。这个想法原本是为了展示Spot良好的平衡性能。但有些人认为这类似于虐待动物的行为。善待动物组织(PETA)的相关人士发表了一份声明,称Spot遭受的行为是“不恰当的”。
马萨诸塞州剑桥市麻省理工学院媒体实验室的研究员凯特·达林在研究人们与玩具恐龙机器人pleo的互动时,也发现了类似的情况。Pleo外形看起来不像人类,而且我们观察到它很明显仅仅是一个玩具。但是,它体内设定的编程行为和说话方式不仅展示了它拥有的智力,还暗示它能够体验痛苦的能力。例如:如果你把Pleo倒着拿起来,它会呜咽地乞求你停下来。
为了了解我们在将同情扩展到简单的机器人方面有多少的认识,达林鼓励在最近开展的研讨会上的参与者与Pleo一起玩,最后让他们去摧毁它。当时,几乎所有人都拒绝这一方案。达林说:“尽管无论在意识层面上还是在理性层面上,我们完全明白它们不是真的,但人们已经下意识地把机器人当成活的东西来对待。”
尽管是Pleo还是Spot都不会感到疼痛,达林认为,我们将来有必要去关注如何对待这些实体。她说:“如果我们对他们采取暴力行为之后感到不安,或者说如果感到有什么不对劲的地方,这也许就是我们对他的同情心,而且我们不想否认这点,因为这可能会影响我们对待其他生物的方式。”(这是电视剧《西部世界》提出的一个关键问题,在这个问题上,主题公园的客人们被鼓励去与超逼真的仿生机器人打交道。)
与机器人对话
就目前而言,只要你是它的所有者,虐待Pleo或任何现有的机器人都不是犯罪。但是,如果我们真的对以上讨论的问题有了某种形式的意识,那么虐待机器人将被如何看待呢?在最初,我们怎样才能知道一台机器是否有思想呢?
半个世纪前,计算机科学的先驱者阿兰·图灵思考过这个问题。从图灵的角度来看,我们永远无法确定机器是否拥有与人类类似的感受和体验,所以我们最好的办法就是看看机器人能否像人类一样继续进行对话(我们现在称之为图灵测试)。
考虑到人类对话的复杂性,打造一台能够进行冗长的正常口语交流的机器人是一项艰巨的任务。但如果我们能造出这样一台机器,图灵认为,我们应该把它当作一种能够思考和拥有感觉的生命来对待。
来自亚特兰大的拉比(犹太人的特别阶层,学者)和法学教授马克?戈德费德也得出了类似的结论:如果一个这个智能机器人实体拥有人类的行为,他最近写道,“我不能去随意地戳碰它来试验看它是否会流血,这样不道德。无论从道德的角度来说还是宁可谨慎行事的角度来看,我有责任把所有看起来像人类一样的实体视为人类。”
从而我们得到的显而易见的结论是,权利的赋予不应以生物学为基础,而应基于更基本的东西:人格。
它们能拥有哪些权利?
如果我们最终承认了智能机器作为一个人,那么我们有义务赋予它哪些法律权利呢?假如它能通过图灵测试,我们也许会觉得它至少应该拥有继续存在的权利。但澳大利亚墨尔本莫纳什大学的哲学家罗伯特·斯派洛认为,这仅仅是个开始。他想知道,如果一台机器的“头脑”比人类的“头脑”还要聪明,那么会发生什么呢?在最近的一篇文章中,他写道:“的确,杀死一台能够通过图灵测试的机器与杀死一个成年人类一样,不仅是错误的,而且根据机器所能帮助我们的能力,它甚至可能错上加错。”
也许这从纯粹逻辑的角度来说是有意义的。但西雅图华盛顿大学的机器人技术和网络法律专家瑞安·卡罗表示,我们的法律不太可能改变这种状况。“我们的法律体系反映了我们对于这类问题都是通过基本生物学决定的,”他说。如果有一天我们发明了某种人工智能,“它将打破一切传统的法律,就像我们今天所理解的那样。”
对于安德鲁来说,关键问题在于如何让该实体赋予权力来让自己的利益得到认可。当然,我们要确定它们的兴趣是什么,这可能是件棘手的事。就像来自某个国家的人很难理解来自不同文化国度的人的欲望一样。她表示,作为人类,当我们真正认识到某件事的时候,我们至少有义务和判断去做正确的事。“如果我们意识到某件实体实际上是‘某人’,那么我们就必须切身考虑他们的利益。”
也许现在对于我们来说不难去想象一下他们未来会持续存在的兴趣,而在这种情况下,我们可能需要三思而后行。