展会信息港展会大全

曾毅对话郝景芳:人工智能不是未来,而是现在|红杉爱科学
来源:互联网   发布日期:2020-10-15 08:33:28   浏览:7436次  

导读:红杉汇X折叠宇宙 2020,这个略带对仗神秘感的数字,给予了人们许多对未来的期盼。时至今日,不少人自嘲今年是见证历史的一年,我们以科技为主题的专栏也在这历史潮流的裹挟中应运而生。 鉴于此, 红杉汇联合成员企业童行学院创始人、 雨果奖获得者郝景芳 开...

红杉汇X折叠宇宙

2020,这个略带对仗神秘感的数字,给予了人们许多对未来的期盼。时至今日,不少人自嘲今年是“见证历史”的一年,我们以科技为主题的专栏也在这历史潮流的裹挟中应运而生。

鉴于此,红杉汇联合成员企业童行学院创始人、 “雨果奖”获得者郝景芳开启“折叠宇宙”这档专栏诞生的初衷,以“打开折叠宇宙,看见跨界未来”为宗旨,以通俗易懂的大众化语言,拆解科技领域专业术语和科学概念,传播重要信息思维,让前沿科技走进大众。

我们精心选择了人工智能、基因编辑、机械骨骼、细胞医疗等与你我他息息相关的话题,脚踏实地的深入研究领域内的各机构,如中科院首席专家、领域内创始人、研究第一人等,独家解析。

我们期望带着读者在与不同城市、不同历史时空、不同行业领域的人破壁、破次元、破圈层,相互沟通,跨界对话,一同进入脑洞大开的未来。本期我们带来这一系列的第一个话题人工智能。

有关人工智能,过去几年已是老生常谈。但关于人工智能与人的边界,行业一直存在争议,并且衍生出不同的想象。热门的科幻电影《机械姬》隐喻出有关人工智能技术发展的两大问题:一个是图灵测试可能存在缺陷,一个是人工智能与人脑的界限究竟在哪里。

对科学家而言,这或许是难以解答的技术性命题,需要漫长的理论证实和研究。但对更多人来说,大家关心的无外乎两类问题:

未来人工智能会不会像机械姬这么聪明?

人工智能会超越人类智商进而统治人类吗?

围棋可以说是人类智力游戏的最高峰,AlphaGo曾在围棋比赛中战胜了人类世界冠军李世石,这难道还不够聪明吗?其实,在单一智能方面,人工智能已经超越人类,但是综合智能方面,还和人类差得很远。

为此,我们特意实地探访了AI类脑智能研究中心,与中科院类脑智能研究中心副主任曾毅教授,随郝景芳一起进行了一场未来感十足的AI对话,揭晓更多有关人工智能、类脑研究的秘密。

初探类脑网络:假若狮子会说话?

郝景芳:身为一个主写科幻小说的人,脑子里更多想的是天马行空的思路,而曾毅教授则更多是脚踏实地的研究,非常想了解更多有关人工智能的前沿科技成果,科幻与科技的思维碰撞一向充满了化学反应。先请曾毅教授为我们介绍下类脑网络吧!

曾毅:我们为什么要从受大脑启发的角度去构建人工智能呢?实际上人类在发展过程中,一直是一种比较自信的动物。但在自然界面前,人类在整个演化过程当中,并不一定就是最优的,人类也还没有到达演化的顶峰。但是,人类在构建人工智能的时候,我们可以认为在一个镜子当中看我们自己,在构建一种新的文明。

受人类智能启发,有人说构建AI不需要参考人类智能。如果这样,可能忽略的就是数亿年的自然演化带给我们的力量。人类是怎么产生的?正是在数亿年的演化过程当中产生的。有个非常有意思的例子,有位哲学家曾经说过,如果一只狮子会说话,那我们就没有办法去理解它。另一位哲学家Daniel Danette却认为不是这样。如果一个狮子会说话,我们将很好地理解这个动物。但这对于我们理解狮子毫无益处,因为一个会说话的狮子就已经不是狮子了。

这不就是我们在构建人工智能时所面临的吗?如果我们创造的AI,与人类的实现方式是完全不一样的,那还是我们理解的智能吗?从这个角度来讲,我们更多希望受到大自然演化机制的启发,去构建未来的人工智能。更关键的是,这种方式构建的人工智能对人类来讲可能是最贴近的,最容易被人类理解的,也是最安全的方式。可以想象,如果你用一种完全不同的方式去构建人工智能,你自己也说不清楚它为什么工作。就像现在深度神经网络的系统,很多层隐藏很难解释一样。你宁愿相信这样的系统,还是相信一个基于这个数亿年的演化,得到了现有机制和结构发展出来的智能系统呢?

答案已经非常明显了。我们在构建类脑人工智能的过程当中,其实是受到脑结构和它机制的启发,而不是去克隆!因为自然演化的过程,已经使得我们大脑的结构和机制调整得更适合去解决问题。

人类是唯一具有意识的智能体吗?

曾毅:有一个非常有意思的实验,我们经常说一个人之所以跟动物有区别,就是因为人类可以有意识,但实际上人类是不是唯一能够具有意识的智能体?从认知科学的角度来研究的话,有不同的认识。如果我们跟AI系统来比较,AI永远不可能有意识。

自我意识是意识的其中一种,通过镜像测试,我们认为很多动物是有自我意识的,比如说大象、海豚。通过测试,可以看出海豚像人一样具有自我意识,而有一些动物像猴子,它就不能够通过镜像测试。

我有一个同事,训练恒河猴大概两到五周的时间,使得它在训练以后能够通过镜像测试。当时给我的启发就是,如果我要构建一个猴脑的计算模型,要做的实验就是人们设计给训练猴子的这个实验。如果猴子能够学会通过镜像测试,那么是不是人工智能也能够学会通过镜像测试。最终的结果是积极的,我们的小机器人通过了镜像测试。你在用激光笔打到它的脸上的时候,它知道你打的是他的脸,而不是其他的几个长得跟它一模一样的机器人。但是在未经训练之前,它没有这样的意识。

当时这件事情,把我神经科学的同事吓了一跳。他们说,这一定是个假新闻,因为机器人怎么可能具有意识呢?我没有说机器人具有意识啊,我是说,通过这个训练后,使猴子有了自我意识。但实验是你设计的,猴脑是猴子大脑的一个复制品,我们把它运用到机器人身上去。现在猴子通过了测试,你说猴子具有自我意识,机器人通过测试,你说机器人没有自我意识,我说这个道理在哪里呢?实际上我的结论是说一个没有自我意识的机器人,现在通过了镜像测试,那能说明什么呢?说明从神经学和心理学出发设计的镜像测试,可能并不能作为检测自我意识的黄金标准。

郝景芳:我非常有感触。人工智能带来的最大好处,其实是让我们人类更理解我们自己。就比如说我看了一些人工智能的相关原理后,我发现人工智能,它其实是很难做自我驱动的一些事情,你让它下围棋,它不会去干别的。所以我观察小朋友。他现在一岁多,每到一个陌生的环境,会四处打量,觉得很稀奇有趣。当他看到有人把百叶窗的窗帘哗的弄下来时,他看呆了,仿佛没见过这么有意思的现象。于是就跑到窗户旁边,也想摆弄着玩。

但人工智能就不一样了,像AlphaGo虽然战胜了人类,却并不会想到除了下围棋,还能去做什么,这种自我驱动力是AI所没有的。

那我们人类是如何拥有这种力量的?就像曾教授刚才讲的自我意识,我也是看马文明斯基的作品《情感机器人》,他说人至少有六层自我认知。先自我认知,然后有个自我批评,再对自我批评的自我批评,然后有一个自我综合定位等等。所以,人类的意识是非常复杂的。我们越是想要构建发达的AI神经网络,就越发现“哦,其实我们人类本身就挺神奇的。”

AI的善与恶 要看人类怎么定义

曾毅:另一个非常有意思的观点同样来自一位哲学家。他认为:“拟人化的人工智能是一个错误的发展道路,因为人类的情感和价值观,就是我们仇恨、敌视的来源,所以模仿了人类的情感和价值观的机器人,会像我们现在的人类一样危险。”我想他要表达的意思,并不是对人类很失望,而是说我们人类不完善的那一面,有可能被计算机学到,特别是我们所说的人类价值观。如果我们自身的价值观不正确的,定义这个价值观的人是不正确的,那么产出的人工智能系统就非常危险。

郝景芳:因为现在很多人就在讨论互联网的极化。本来大家认为信息是平的,世界都变平了。但是现在发现互联网的时代,大家反而各自凑到一起,反而激化了各种极端观点,声音被放大。那未来会不会形成好多种人工智能,比如说,性别偏见人工智能,他们就专门是做性别偏见的智能。还有民族仇恨的人工智能,人和人的极端矛盾思想作用于AI。人工智能世界也会变得激化吗?

曾毅:不排除这种可能。目前构建人工智能物,我们是在说人类要把人工智能变成什么样子,所以它仍然是人类的一面镜子。现在人类的很多方面,像你说的会比较极端化,所以我们现在要想如何避免这些情况的发生。

首先,我希望人工智能的模型演化速度要比大脑的演化速度再快一点。我觉得超级智能什么时候到来不重要,重要的是我们怎么定义。如果超级智能真的超级,那么它在我们所说的利他之心等方面,都要比人有过之而无不及。只有那样的话才是真正的超级智能。所以像有些人说超级智能如果真的实现了,那人类就灭亡了。我说那还不是真正超级智能,仍然是一个没有演化好的超级智能。

如果它演化好了的话,它就会发现真正的利他行为,所以我觉得这个可能是未来人工智能在发展过程中,特别是在构建它的伦理道德框架过程中,非常重要的发展方向。

基于现在对于人类价值观的理解开始,实际上人类也还在演化的过程当中。我们未来构建的你可以理解是人类的扩展。它是另外一种文明,但也有可能是人类的未来。像景芳说的。如果人类未来存在的其中一种形式就是把意识上传的话,那你可以认为它是另外一个增强人类的智能版本。

如果是这样的话,我们现在同时也要思考的,就是人类如何去转型。人类的伦理道德价值观也在发生着演变。像我们刚刚提到一个场景,我们能不能在一个模拟的环境当中去演变,加速它演变的过程,使得现代人类能够受益于这种计算模拟演变,再回馈于现代社会。我想这可能是对人类来讲,既是一个终极机遇也是一个终极挑战。

郝景芳:我想到了阿西莫夫的机器人三大定律,目的就是机器人服务于人类、保护人类,这是基本法则。

曾毅:对,但为什么要保护你而不是我?为什么保护的是人类不是机器人?一旦AI获得了这种反思的能力的话,它就会去挑战人类伦理道德和价值观。但从另外一方面,我们也要去深刻思考人类伦理道德价值观是不是有问题?

我有一个朋友他是耶鲁大学生物伦理中心主任叫Wendell Wallach。他写了一本书,叫做《道德机器》。在那本书的中文版书皮上,有这样一句话“永远把机器关在道德的牢笼里”。我看到这句话觉得很不舒服,提出了质疑,他却坚持这句话是对的,并且要刊在英文第二版书上。

我说,“如果这样的话,你就不要给我看你的书了”。我不同意这句话,为什么呢?你可以设想这样一个场景:在2015年的时候,AI可以看着网络视频学会炒菜。然后现在我们要构建更高智能的AI,教它去理解电影里面的场景。那么30年之后,超级智能真正到来的时刻,AI在网络上看到,关于人类如何对待机器人的视频。你想一想,那到底是人类在牢笼里还是机器在牢笼里面?这是一个很难回答的问题。

他听完笑的很大声,但始终没有给出问题的答案。我想就是这样,我们现在并不确定人类的道德伦理价值观就是最优的,构建以人类为中心的人工智能伦理,真就那么好吗?还有一个策略是以生态为中心,人类是生态的一部分。

1950年艾伦图灵写计算机智能的时候,文章中有句话,大意为,我们应该有以宇宙为中心的这样的视角来构建新兴科技的伦理的问题。所以我觉得人类能够看到的视野是很小一部分,往前一点点。即使是这样,还有很多问题亟待解决。

郝景芳:其实科幻照进科学,科学也照进科幻。这本来就是一个思想实验的共生体。像刚才讨论说未来人工智能是否可以真的去判决人类,我其实真就写过这样一个法庭的故事。人工智能误判了人类,它从表面看事实是一回事,但深究内里却是不对的。那这样一个故事就是从我去了解到人工智能的原理所得来的灵感。所以想要写关于未来的故事,本身就应该多去学习一些前沿科技。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港