展会信息港展会大全

生死关头,机器人为我们做出理智判断?
来源:互联网   发布日期:2015-01-12 14:07:19   浏览:14129次  

导读:1月12日消息,想象一下,在不远的将来的一个周日,一位名叫西尔维亚(Sylvia)的年迈女性正躺在床上,她在一次跌倒中折断了两根肋骨。一个看护机器人正在照看她,让我们将其称之为法布伦(Fabulon)。西尔维亚让法布伦去取止痛片。法布伦会怎么做? 负责为法...

1月12日消息,想象一下,在不远的将来的一个周日,一位名叫西尔维亚(Sylvia)的年迈女性正躺在床上,她在一次跌倒中折断了两根肋骨。一个看护机器人正在照看她,让我们将其称之为法布伦(Fabulon)。西尔维亚让法布伦去取止痛片。法布伦会怎么做?

负责为法布伦编写代码的程序员会准备好一套指令:机器人不能伤害人类;机器人必须服从人类;机器人在获得上级许可之前不能提供任何药物。在此之前,这些规则都运作良好。但是,在这个周日,因为西尔维亚家的无线网络出现故障,法布伦无法与上级取得联系。西尔维亚提高了声调,她正在坚持自己的要求。

“这里存在一个冲突,”塔夫斯大学人机交互实验室的马蒂亚斯·朔伊茨(Matthias Scheutz)说道。“一方面,机器人需要减缓主人的痛苦;另一方面,它不能在未获授权的情况下向主人提供药物。”人类看护可以做出自己的选择,并且在事后报告。但是,机器人无法做出自行判断,至少目前还无法做出。

生死关头,机器人为我们做出理智判断?

机器人道德这一新兴领域的少数专家正在试图解决上述问题。来自计算机领域的科学家正在与哲学家、心理学家、语言学家、律师、神学家以及人权专家一道,对机器人可能遇到的决策点进行识别,以便让机器人可以模仿人类判断对错的思考过程。朔伊茨对“道德”的定义非常宽泛,在面对两难境地时,其可以作为判断依据之一。

从Roomba真空清洁机器人到自主家庭看护机器人,这在技术上是一个很大的跨越,这是机器人伦理方面亟待解决的问题。涉及道德的选择范围非常宽泛,从相对简单的判断,例如上文中法布伦是否应该将止痛片给西尔维亚,到关乎生死抉择,例如军事机器人对射击与否进行判断,以及自动驾驶汽车对刹车或转向做出的选择。对于人类来说,在上述情形中做出准确判断非常困难。然而,伦理学家从机器人的角度对这些问题进行思考时,常常也会陷入各种选择无法自拔。

我和机器人专家进行交流之后发现,最典型的自动机器人道德方面的例子是无人驾驶汽车,该产品目前尚处在原型阶段。来自耶鲁跨学科研究中心负责科技与道德方面研究的主管温德尔·瓦拉赫(Wendell Wallach)表示,无人驾驶汽车的安全性无疑较目前的汽车更高,至少在高速公路上行驶时是如此,因为其很少需要作出决策,驾驶者通常在发短信或者漫不经心地变道。但是,在城市道路行驶时,即便是通过一个十字路口,机器人也会面临各种艰难判断。“人类会试图进行小幅度尝试,” 瓦拉赫表示。“他们发动引擎,向前移动一点,直到最终有人表示自己将要先走。”这中间牵涉到许多智力活动,瓦拉赫停顿了一下之后继续说道,“无人驾驶汽车能够做出类似的行为吗?”

而且,瓦拉赫表示,有很多情况远比十字路口复杂,例如3或4件事同时发生的情形。让我举个例子,如果一辆汽车想要避免与另一辆发生碰撞的唯一选择是撞向一个行人,那么,这就涉及到道德选择,而且每次的抉择都会不一样。行人是一名儿童吗?是否可以避开行人直接撞向一辆SUV呢?SUV上只有一个人吗?如果有6个该怎么办?上述情形被身为加州州立理工大学道德与新兴科学部门主管,同时也是哲学家的帕特里克·林(Patrick Lin)称之为“道德数学”。

虽然历史上在道德领域有过类似的辩论,但是,当无人驾驶汽车出现在这一问题中时,情况变得更加复杂。如果决策过程的算法总是试图将伤亡数量降至最低,那么车辆可能会对对面载有两名司乘人员的汽车进行躲避,进而冲出道路,冒着只让一个人伤亡的危险——这个人就是你自己。或者它试图撞向沃尔沃而不是MINI Cooper,仅仅是因为沃尔沃的司乘人员幸存率更高,这也意味着你自己会面临更大的风险。这些判断可以在瞬间完成。车辆通过安装在车顶和挡风板上的激光设备、雷达和摄像头记录和监测数据,然后基于被观察对象的行为进行各种概率预测。但这不仅仅是技术问题,同样涉及到哲学,需要设计人员予以解决,同时也会牵涉到一些法律责任问题。

军方开发了致命性自动武器系统,如巡航导弹。他们同时也在开发陆基机器人,其基于国际战争法来判断自己的行为。举例来说,程序可以设置成——如果一个人身着敌方制服,那么可将其识别为敌方战斗人员,允许射击;或者当目标是学校或者医院,或者对方已经负伤时,则不允许射击。

罗纳德·阿金(Ronald Arkin)是乔治亚理工学院的机器人专家,正在为军方从事机器人道德规则方面的研究。“我主要的目标是减少战场上非战斗人员的伤亡,”他表示。他的实验室开发了称之为“道德适配器”的技术,能够让机器人具备负罪感。一旦程序监测到使用某种具体武器造成的损毁与预期不相符时,就会激活该机制。如果差异巨大,机器人的负罪感程度将会达到一个特定阀值,进而停止武器的使用。阿金表示,有时机器人无法对更加复杂的情形进行判断,特别是超出“射击还是不射击”这类简单判断时。但是总的来说,机器人所犯的错误还是要少于人类,人类的战场行为经常受制于恐慌、迷惑或者恐惧。

机器人缺乏情感,这使得试图将人性赋予机器人的尝试让许多人感到不安。被机器人射杀是没有尊严的死。来自斯坦福法学院的彼得·阿萨罗(Peter Asaro)于去年5月在日内瓦就常规武器问题举行的一次联合国会议上表示,机器“不适合对人类的价值进行判断”。他同时表示,“它们不适合在法律的框架内杀人,这会让我们尊严尽失。”联合国将于今年4月就自动化武器问题提出质询。

阿萨罗就自动化与道德叠加所引发的基本问题进行了意味深长地演讲。大多数人都觉得两者之间不可调和。但是,无论我们的感受如何,越来越多的机器人出现在我们的生活中已经成为一个不争的事实。谷歌无人驾驶汽车的原型已经于上月面世;自动机器人无人机已经在开发进程中;机器人已经被用在某些医疗方面,例如中风康复。这意味着我们不得不面对一个现实,那就是:机器人不可避免会出现在所有需要伦理决策存在的场合。

专家倾向于对机器人的道德问题持乐观态度。瓦拉赫谈到了“道德方面的图灵测试”(moral Turing test),他的意思是总有一天机器人的举止将和人类一致。朔伊茨在这一方面持有更加激进的看法,他表示机器人迟早会较人类具有更高的道德水准。而让人感到欣慰的是,道德可以通过算法进行计算,这显然好过处于恐慌中的人类可能做出的抉择。但是,如同对待其他形式的劳动一样,将道德判断也交由机器人来完成真的没问题吗?


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港