展会信息港展会大全

经济学人:智能机器人需要相应规则管理
来源:互联网   发布日期:2012-07-30 21:19:02   浏览:23076次  

导读:由于机器人变得越来越智能,人们需要制定相应的规则来管理它们 在经典科幻电影《2001》中,太空船的主机HAL面临一个进退两难的困境。计算机指令要求他既要完成飞船使命(调查一件在木星附近的人工制品),又不能让船员知情。他决定通过杀死船员来解决这一矛...

    由于机器人变得越来越智能,人们需要制定相应的规则来管理它们

    在经典科幻电影《2001》中,太空船的主机HAL面临一个进退两难的困境。计算机指令要求他既要完成飞船使命(调查一件在木星附近的人工制品),又不能让船员知情。他决定通过杀死船员来解决这一矛盾。

    随着机器人变得越来越智能,计算机控制的机器面临道德抉择这一概念正在从科幻电影中走到现实世界中来。为了保证这些机器人做出比HAL更靠谱的抉择,我们需要想办法赋予它们更高的道德判断能力。

 

机器人的寓言集

    不足为奇的是,军事科技稳步走在研发自决能力机器人领域的最前沿(详情请见季度科技汇总),并且在这一发展历程中不段有五花八门的机器人诞生。例如,名为沙蚤(Sand Flea)的机器人遇窗可跳窗,遇屋可上梁,并且全程摄像。之后它又可靠轮子行进,直到需要再次跳窗上梁;代号RiSE的机器人有着六条机械腿,形似蟑螂可攀墙;最高负重答130kg的犬形机器人LS3,可以在崎岖地形中跟在人后面碎步急行;公文包大小的机器人SUGV,可以识别并跟踪人群中的指定目标;无人侦察机系列,有的轻如婚戒,有的则可挂载2.7吨重炸弹。

    除此之外,民用机器人也在普及,从驾驶舱到手术室到处都可以见到它们的身影(见文)。在机器人的帮助下,民航客机很早就实现了自主着陆。无人驾驶火车也变得随处可见。沃尔沃旗下新款V40掀背式轿车也已基本上实现了在繁忙路况下的自动驾驶。与福特旗下的B-Max小型面包车一样,V40可以在即将发生碰撞时自动刹车。全自动驾驶汽车正在世界各地展开测试。谷歌研发的无人驾驶汽车在美行驶里程数已超过250,000英里,并且内华达成为美国第一个为此类在公共道路上进行行车测试制定规章的州。不久前,沃尔沃在巴塞罗纳的高速公路上成功测试了一队无人驾驶汽车。

    随着机器人变得更加智能与普及,假以时日,智能化机器势必要在不可预料的处境下做出生死攸关的抉择,如此以来机器人便有了——或者像是有了——道德选择能力*。在当前的各种武器系统中,操作员还处于 “决策圈内”,但随着系统复杂度的提高,并为之配上可自主执行系统命令的武器,操作员很可能就被安置在了“执行圈上”。

    果真如此的话,则机器人将陷入伦理困境。如果已知目标在一所房子内,但其中也可能有平民,无人机是否应该向房子开火?如果是以撞上其他车辆或者危机车内乘员为代价,无人驾驶汽车是否还会选择突然转向以躲避行人?面对可能会造成恐慌的情形,救灾机器人是否应该告诉人们正在发生的事情真相?此类问题开创了“机器人道德”这一领域,其主要目的是使机器人有能力对此类问题做出恰当的选择——换句话说,就是赋予它们明辨是非的能力。

    其中有一个解决此类棘手问题的办法就是完全避免此类问题的发生,即禁止使用自主化战场机器人,规定驾驶员在车辆行驶过程中必须时刻保持全神贯注。为了反对日益增多的无人机应用,人们成立了许多诸如国际机器人武器控制委员一样的运动团体。然而即便如此,自主机器人的应用还是利大于弊。机器人战士不会实施性侵犯,不会一怒之下烧毁村庄,也不会迫于战斗压力做出冲动之举。如同自动驾驶仪使得飞机得更加安全一样,无人驾驶汽车的安全性也很可能会超越普通汽车。无人驾驶领域的先锋Sebastian Thrun认为,无人驾驶汽车每年可以使一百万人免于非命。

    与抵制自主机器人的应用相反,我们需要想办法发展机器人学伦理学,并且动作要快。由于立法落于科技发展之后,所以美国有很多州匆忙通过各种涉及无人驾驶汽车的法律法规,以规范“行驶在”法律上的灰色地带无人驾驶汽车。很明显,应对这一棘手的问题,我们需要对整套公路法规作出修改,而不是为一群带轮子的机器人单独推出法规。

    最著名的一套机器人伦理学指导原则当属 “机器人三定律”,该定律由科幻小说家Isaac Asimov在1942年提出。这三大定律依次要求机器人保护人类,服从人类命令和保全自己。可惜的是这三大定律在现实世界中鲜有用武之地。比如,战场机器人的存在本身就违反了第一定律。在Asimov的科幻作品里,机器人试图遵循他那表面上看起来合理的三定律,但过程中发生了各种意想不到的复杂状况。其小说的精彩之处恰在于他对这些复杂状况的突出刻画。为了规范自主机器人的发展和应用,我们需要更加详实的机器人伦理学指导原则。尤其需要在三个方面取得进展。

 

制定机器人学定律的三条原则

    首先,如果自主化的无人机在行动中出了叉子,或者无人驾驶汽车出了车祸,必须有这么一些法律可以帮助人们确定责任归咎于谁,是机器的设计者、程序员、制造商还是操作人员。为了明确责任归属,必须使自主化系统保留详尽的日志,由此人们便可以在必要的时候弄清楚系统各种决定背后的依据。这同时也包含对系统设计的要求:比如,通过学习先例而非遵循预先设定的规则来运行的计算机决策系统能够拒绝使用人工神经网络*。

    其次,在机器人中植入了伦理体系的情况下,它们所做出的判断需要符合大多数人类的判断标准。实验哲学应该对此有帮助,该哲学研究人们如何应对伦理上的两难困境。最后一点,也是最重要的一点是,工程师、伦理学家、律师和政策制订者需要进一步通力合作,否则他们可能会做出类型各不相同的规则。伦理学家与工程师的合作是双赢的:伦理学家在试图“教授”机器伦理的过程中可能会加深自己对伦理学的认知。而工程师则可以向大众保证其设计出来的机器人没有道德伦理缺陷。

    科技推进了人类社会的发展,然而其每一次进步都伴随着新问题的出现,智能机器人也不例外。越早解决掉它们所带来的道德选择难题,人类就越容易享受其肯定会带来的好处。

译者注:

*1.道德选择,是人类有目的活动的一定形式.当某一个人在特定场合面临几种可供选择的行为方案时,依据某种道德标准在不同的价值准则或善恶之间进行自觉自愿的选择,作出符合一定阶级或社会道德准则的决定,这就是道德选择.

*2.人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。

*3.机器人三定律

第一法则

机器人不得伤害人类,或袖手旁观坐视人类受到伤害;

第二法则

除非违背第一法则,机器人必须服从人类的命令;

第三法则

在不违背第一及第二法则下,机器人必须保护自己。

但在1985年,《机器人与帝国》这本书中,阿西莫夫将三大法则扩张为四大法则:

第零法则

机器人不得伤害人类整体,或袖手旁观坐视人类整体受到伤害;

第一法则

除非违背第零法则,机器人不得伤害人类,或袖手旁观坐视人类受到伤害;

第二法则

除非违背第零或第一法则,机器人必须服从人类的命令;

第三法则

在不违背第零至第二法则下,机器人必须保护自己。(来源:译言网)

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港