展会信息港展会大全

机器人三定律有瑕疵,授权理念才能保护人类?
来源:互联网   发布日期:2017-07-19 14:37:23   浏览:31762次  

导读:胡颖 编者按:正如可以保护你、帮助你、支持你一样,机器人也可能会伤害你。如何构建一套放之四海皆准的机器人行为原则,是科技工作者不得不面对的技术和伦理双重难题。赫特福德大学的人工智能学者Christoph Salge博士撰文分享了自己的思考。 如何避免机器人...

机器人三定律有瑕疵,授权理念才能保护人类?

胡颖

编者按:正如可以保护你、帮助你、支持你一样,机器人也可能会伤害你。如何构建一套放之四海皆准的机器人行为原则,是科技工作者不得不面对的技术和伦理双重难题。赫特福德大学的人工智能学者Christoph Salge博士撰文分享了自己的思考。

如何避免机器人伤害他人?许多现有的机器人,比如在工厂里组装汽车的机器人,在人类接近的时候就会立即关闭电源。但是,这种简单粗暴的解决方案并不适用于自动驾驶汽车,它可能需要在发生车祸时紧急移动,或者是对于一个护士机器人来说,因为它可能需要在老人摔倒之前扶起对方。

随着机器人成为我们的仆人、伙伴和同事,我们需要处理日益复杂的情况,以及可能引发的伦理和安全问题。科幻小说已经预见了这个问题,并提出了各种可能的解决方案。最著名的是阿西莫夫(Isaac Asimov)的机器人三原则,它们的提出是为了避免机器人伤害人类。自2005年以来,我和我在赫特福德大学的同事们一直在研究一个可以替代的想法。

我们认为不应该限制机器人的行为,机器人应该被赋予最大限度发挥它们行动能力的权利,这样它们就可以为任何特定的场景挑选最好的解决方案。正如我们在一篇新论文中所描述的那样,这一原则可能构成一套新的通用准则的基础,以使人类尽可能安全。

阿西莫夫的三原则

1. 机器人不可能伤害人类,或者通过不作为,让人类受到伤害。

2. 机器人必须服从人类的命令,除非这样的命令与第一定律相抵触。

3. 机器人必须保护自己的存在,只要这种保护不与第一或第二定律相抵触。

尽管这些原则听起来相当有理,但无数批评已经揭示了它的不足。Asimov自己的故事可以说就是对自己所提出的这三项原则的解构了,展示了它们在不同的情况下是如何失效的。目前,大多数试图起草新指导方针的尝试都遵循了类似的原则,以创造出安全、顺从和有效的机器人。

任何明确制定的机器人指导方针所存在的一个问题是——我们需要将它们转换成机器人能够处理、理解和运用的格式。理解人类语言和语言背后的生活经验对于一个机器人来说是非常困难的。宽泛的行为目标,例如避免对人类造成伤害或保护机器人自身的存在,在不同的情况下可能意味着不同的东西。遵守这些规则可能最终会让机器人无法像它的创造者所希望的那样行事。

新理念:授权

我们的另一种理念——授权,代表着无助的反面。被授权意味着有能力、并意识到你可以产生影响。我们一直在开发将这个社会概念转化为可量化和可操作的技术语言的方法。这将使机器人能够保持它们的选择,并以一种增加它们对世界的影响的方式行动。

当我们尝试模拟机器人如何在不同的场景中使用授权原则时,我们发现它们通常会以令人惊讶的“自然”的方式行动。它通常只要求他们对真实世界的运作模式进行建模,但不需要任何专门的人工智能编程来处理特定的场景。

但是为了保证人们的安全,机器人需要努力维持或改善人类的授权,以及他们自己的赋权。这基本上意味着要具有保护能力和支持性。为人打开一扇锁着的门会增加他们的赋权。限制人类将会导致对机器人的短期授权失效。而对人类的严重伤害可能会完全消除机器人被赋予的权力。与此同时,机器人必须努力保持自身的运作力量,例如确保它有足够的能量来运作,而不会被卡住或损坏。

机器人可以适应新的环境

使用这一通用原则,而不是预先设定的行为规则,可以让机器人考虑环境,并评估人们未曾设想过的场景。例如,机器人不会总是遵循“不能推人类”的规则,而是会在人们可能被一个坠落物砸到之前将他们推出去。人可能仍会受到伤害,然而这种伤害相比之下更校

在电影《I, Robot》中,机器人处在一个令人压抑的状态中,通过限制和“保护”来减少对人类的整体伤害。但我们的原则是避免这样的情况,因为这意味着机器人失去了人类的赋权。

尽管“授权”提供了一种新的思考安全机器人行为的方式,但我们仍有许多工作要做。我们要提高它的效率,这样它就可以很容易地部署在任何机器人上,并外化为机器人良好、安全的行为。这是一个非常困难的挑战,但是,我们坚信,授权可以让我们找到一个切实可行的解决方案,来解决当前充满争议的问题,即如何控制机器人的行为,以及如何让机器人——在最基本的意义上——“具备道德伦理”。

编译组出品。编辑:郝鹏程


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港