6月26日消息,据国外媒体报道,底特律、东京以及斯图加特的汽车厂商基本弄明白了要如何打造无人驾驶汽车。就连谷歌的工作人员似乎也解决了这个难题。现在整个行业要解决一个更棘手的问题:决定这类机器是否应当在事故发生时掌握生杀大权。
这个行业承诺了一个美好的未来,无人驾驶汽车会像鱼群那样行驶,有序且和谐。但是,就像阿西莫夫的科幻小说一样,除非汽车制造商能解答那些痛苦的哲学问题——例如,无人驾驶汽车是否应该牺牲乘客的性命,挽救一校车的孩子——否则这一切都是空谈。
汽车行业高管发现自己来到了一个陌生的领域,他们向伦理学家和哲学家寻求帮助,以求摆脱这种尴尬的困境。福特、通用汽车、奥迪、雷诺以及丰田等公司纷纷前往斯坦福大学的汽车研究中心,那里正在给汽车写入有关道德决定的程序,看事态会如何发展。
该实验室的负责人克里斯·格迪斯(Chris Gerdes)说:“这是个人人关注的事情。厂商们非常清楚这里面的问题与挑战,他们的程序员正主动尝试做这样的决定。”
车厂与谷歌公司在无人驾驶汽车的研发上花费了数十亿美元。福特公司本周宣布,将无人驾驶汽车的开发工作从实验室搬到公司的高级工程部门。谷歌则计划在今年夏天让一些无人驾驶汽车上路,告别此前的测试车道。
社会型机器人
在没有司机的介入下,汽车已经能够做到自动刹车与转向。按照波士顿咨询集团的看法,在未来10年里,全自动汽车将能够判断路况。汽车将成为首批可以测试即时推理与反应的无人操作机器。
在加州州立理工大学负责道德与新兴科学研究项目的帕特里克·林(Patrick Lin)表示:“这将为所有社会型机器人定调。汽车将成为社会中真正意义上的社会型机器人。”
厂商的承诺是无人驾驶汽车可以预见并避免碰撞,极大地降低每年3.3万的美国高速公路事故死亡人数。但是事故总会发生。这时候机器人汽车可能就不得不选择两害相权取其轻的做法——要么避免追尾卡车而冲向拥挤的人行道,要么保持路线将司机置于危险之中。
“在自动驾驶技术实用之前,这类问题必须得到回答,”福特人机界面研究团队的高级技术负责人杰夫·格林伯格(Jeff Greenberg)表示。
阿西莫夫定律
就目前来说,伦理学家面临的问题多过手中的答案。无人驾驶汽车行驶的原则是否要强调成全大我,也就是按照能挽救的人数决策,而不考虑涉事个人的安危。阿西莫夫的机器人第一定律称,自动机器不可以伤害人类,也不能坐视人类遭受伤害全然不顾。无人驾驶汽车是否应有所借鉴呢?
帕特里克·林表示:“我不会想让自己的机器人汽车拿我的命来换一两条别人的性命。但如果说,不管有多少人丧命,我们个人最为重要,这样似乎也不合理。”
《危险的主人:如何避免技术不受人类掌控》一书的作者文德尔·华莱士(Wendell Wallach)指出,这就是我们为什么不应让机器人做这类决定的原因。
“未来的办法是建立一套根本原则,即机器不能参与有关生死的决定,”华莱士说。“决定时必须有人的参与。如果人们认为自己可以不为行为负责,那么社会就变得无法无天了。”
违反规则
就在华莱士、林等伦理学家绞尽脑汁思考哲学问题时,格迪斯正在现实中进行试验。今年夏天在加利福尼亚北部,他会在赛车赛道上测试遵守道德规范的无人驾驶汽车,这些汽车能在瞬间做出决定,例如是否要违反交通规则,越过双黄线为并排前进的汽车或自行车留出空间。
格迪斯还与丰田合作,寻找让无人驾驶汽车将控制权快速交给人类司机的方法。他指出,即便是这种切换也存在危险,尤其是在驾驶技术不佳的时候。
是否要给予无人驾驶汽车权力,让它们做这种重要决定。这个问题的关键到头来还是和科幻小说中提到的一样:无人驾驶汽车还是缺乏同情心,不具备变通能力。
“目前还没有一种传感器,能像人眼和大脑一样好用,”格迪斯说。