展会信息港展会大全

美国科学家研发会拒绝人类命令的机器人
来源:互联网   发布日期:2015-11-30 14:03:16   浏览:14524次  

导读:据美国财经资讯网站QUARTZ 11月25日报道,美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说 不 。 通常来讲,机器人是应该始终对人类的指示...

据美国财经资讯网站QUARTZ 11月25日报道,美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说 不 。

美国科学家研发会拒绝人类命令的机器人

通常来讲,机器人是应该始终对人类的指示唯命是从的。当然,在汽车生产线上,对于一些对人类有潜在危险的工具,机器人是可以帮助进行游刃有余的进行操作。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。

这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说, 我知道要怎么操作吗? , 这件事是否在我工作范围内? 以及确认 要做这件事的话,我是否违背了正常的规则? 并且最后的关键的一点是,一定不要伤害人类以及相关财产安全。

塔夫特实验小组将人类的一些内心独白简化为一系列逻辑论证,内置于机器人相关软件中加以识别。例如,在试验中,当命令机器人直直的朝一扇墙走去时,他果断拒绝,因为它自己识别到了该指示会带来危险。这项进展也着实令人欣慰。

最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。

如果你有幸与塔夫特实验组一起工作,你就可以见证机器人是如何思考,并且目睹在指示不合常理,有望伤人的情况下,它们是怎样义正言辞的说出 对不起,我不能这样做! 。 (实习编译:郭柯 审稿:陈薇)


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港