展会信息港展会大全

不必担心人工智能威胁 因为它们也会多读书
来源:互联网   发布日期:2016-05-17 13:24:21   浏览:20366次  

导读:乔治亚理工大学的AI研究员Mark Riedl表示,不担心AI反噬人类。图片来源:乔治亚理工学院。 许多科技大牛对人工智能技术都有些谈虎色变,硅谷钢铁侠马斯克就是其中之一,2014年他在公开场合表示AI技术正在召唤恶魔,称AI技术将像《2001太空漫游》中的HAL 9000...

不必担心人工智能威胁 因为它们也会多读书

乔治亚理工大学的AI研究员Mark Riedl表示,不担心AI反噬人类。图片来源:乔治亚理工学院。

许多科技大牛对人工智能技术都有些谈虎色变,硅谷钢铁侠马斯克就是其中之一,2014年他在公开场合表示“AI技术正在召唤恶魔”,称AI技术将像《2001太空漫游》中的HAL 9000人工智能电脑一样杀死所有“船员”。无独有偶,著名物理学家霍金也表达了自己的担忧,他认为人类不断在AI领域探索“是个极大的错误,该错误甚至可能是人类有史以来犯过的最愚蠢的错误。”

不过也有人不信这一套,来自佐治亚理工学院交互计算系的人工智能研究人员Mark Riedl就是其中之一。

“我认为人们大可放心,人工智能反噬人类的情况不太可能发生,”Riedl说道。“我认为科幻片中的天网不太可能诞生,而且AI也不会将人类看成它们的威胁。”此外,以现在的技术水平来看,想要打造马斯克和霍金眼中那种觉醒后会毁灭人类文明的AI还不太现实。

不过,未雨绸缪总不是坏事,在AI的发展之路上,许多专家已经开始了行动。举例来说,未来自动驾驶汽车载着我们出行时,就需要替人类做出许多选择。那么如何调教AI,让其符合人类的价值标准,以保证我们的安全不受侵害就成了需要考虑的问题之一。

AI也需要饱读诗书

Riedl认为要想让AI理解人类,最好的办法就是让它阅读那些饱含人类价值观的书目。简单来说,如果AI能阅读《圣经》等作品,就能通过学习树立正确的三观,分清善恶的界限。

Riedl表示,人工智能即使会伤害人类,也不是因为其性本恶,而是因为它根本不理解到底什么是伤害。此外,我们也很难给AI列出一个清单,告诉它什么可以做,什么不可以做。因此,我们要让AI适应人类文化。

“问题在于我们手中并没有关于道德和不道德行为的完整资料库,”他说道。“不过人类几千年的文明孕育了太多的善恶故事,即使我们人类,也是通过学习树立自己的三观。在人类文化方面,我们可没有用户使用手册,不过智慧的前人已经将精华放进了许许多多的故事中。”

Riedl和他的同事Brent Harrison最近在一篇名为《用故事给AI灌输价值观》的论文中提到了上述观点。他们的研究基于一个名为Scheherazade的人工智能项目,在这里,AI可以写出交互式小说(即通过不断选择来决定故事的发展方向),当然,在开写前AI需要从其他故事中取经。在研究过程中,Riedl和Harrison洞悉了AI从大量故事中学习写作技巧的方法,他们将其制成了名为Quixote的系统,该系统可以教会AI用合适的方式完成任务。

分清“买药”和“抢药”

举例来说,Riedl和Harrison会下令让AI从药房拿些药。“如果AI只是以效率为先,它肯定会冲进药房抢走所需药品并逃之夭夭。”Riedl说道。

AI会犯这种大错不是因为它身性邪恶,而是它根本不知道去药房拿药需要排队和付款。而这些约定俗成的习惯可不是学校学来的,而是人们在生活中耳濡目染慢慢习得的。不过AI可没有父母,也没人肯花大量时间来培养它,因为它们生来就是要完成任务的。

“不过如果我们能通过一系列真实的故事让AI学会社会准则,那么它们一定会有很大的进步,跑去药房抢药的事就再也不会发生了。”Riedl说道。

虽然需要许多限制性因素,但Riedl和Harrison通过实验验证了自己的理论。当然,在实验中去药房买药的AI并没有获得机器外壳,而且它们参考的故事都直接与去药房买药一事息息相关(可能那个故事很无聊,因为是专门为这次实验撰写的)。

在实验中,如果AI表现出色,就会得到奖励,但如果违反了社会准则,就会受到惩罚。

“这种做法非常明智,”生物伦理学家兼美国进步中心研究员Jonathan Moreno说道。“通过小说,我们可以接触他人的实际生活。同时,小说也是作者眼中社会价值和期待的集中体现,Riedl的做法值得点赞。”

谁来编教材?

如果我们真能做出天网级别的AI,恐怕Riedl和Harrison的AI培养法会成为救世主,不过到时我们还要考虑用什么故事来教育它们。

当然,不是所有小说都能成为AI的老师,有时人类世界的故事善恶不是特别分明,一个人可能是罪犯,但在人性中他却有自己的闪光点。此外,世界上有许多反英雄形象,而且圣经中的许多准则也并不符合当下的价值观。

这些问题又给我们引出了另一个在道德上模棱两可的问题,那就是:谁有权为AI选择它们要学习的故事呢?

“可以说这是一个政治问题,”Moreno说道。“在我看来,这问题根本没有正确答案。如果想走这条路,我们就需要从各个方面进行分析和决断。”

“如果你想成为AI的老师,那就得拥有圣人般的学识,”Riedl说道,“但如果你在教材中删掉了反英雄形象,那就说明你这圣人当得不合格,因为你对这个社会根本没有深刻的理解,而这正是我的担心之一。我们已经进入了大数据时代,经验告诉我们,超量数据总比刚好够更安全,因此只要是合规的,就可以加入供AI学习的数据库中,只有这样我们才能不偏不倚的判断出到底什么是善什么是恶。”

让AI变得比人类更加善良绝对是件好事,但仅通过代码是无法完成这项伟业的。即使是阿西莫夫,也是凭直觉写下不朽的机器人三定律的。因此,眼下能让AI在三观上比肩人类已经是个复杂的任务了。所以我们只能寄希望AI从故事中多学好品质,少学点人类的尔虞我诈了。

via MotherBoard


赞助本站

相关热词: 人工智能

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港