展会信息港展会大全

AI发展的桎梏在于理解能力?大咖开出的十一条建议“AI前沿”
来源:互联网   发布日期:2020-07-20 08:08:08   浏览:14420次  

导读:关注: 决策智能与机器学习 ,深耕AI脱水干货 作者 | 盖瑞马库斯 来源 | 人机与认知实验室 前言: 认知是最难改变的,但却是最值得改变的,AI这些年通过深度学习(神经网络等)获得了长足的进步和里程碑的成绩,但远没达到 因果、推理等深层次理解世界的水平...

关注:决策智能与机器学习,深耕AI脱水干货

作者 | 盖瑞马库斯

来源 | 人机与认知实验室

前言:认知是最难改变的,但却是最值得改变的,AI这些年通过深度学习(神经网络等)获得了长足的进步和里程碑的成绩,但远没达到因果、推理等深层次理解世界的水平,众多AI大牛们都在聚焦这个方向不断努力ing。本文就是著名学者和创业者盖瑞马库斯和欧内斯特戴维斯从深度学习算法固有的缺陷出发,阐述了当下 AI 技术发展的桎梏,对当前 AI 的场景应用和研究范式中的问题进行了分析,他指出AI真正的问题在于信任,常识才是深度理解的关键。最终从认知科学中提炼出了11条对人工智能发展方面的启示,以通用人工智能为发展目标,给出了未来 AI 技术的一种发展方向。在这里也特别推荐这本书《如何创造可信的AI》(Rebooting AI:Building Artificial Intelligence We Can Trust)

正文

可信的AI,也就是基于推理、常识性价值和良好工程实践的人工智能,无论是出现在10年之后还是百年之后,有朝一日若真能实现,定会掀起一场巨大的变革。

在过去的20年间,我们已经见证了重大的技术进步。这些进步主要是以从零学起的“白板”机器学习的形式,在大数据集的基础之上,应用于语音识别、机器翻译、图像标注等领域。我们不认为这一趋势会停止发展。图像和视频标签的技术水平将继续进步;聊天机器人会变得更加优秀;机器人操纵和抓取物体的能力也将继续提高。我们将看到越来越多的对社会有益的新颖应用,例如使用深度学习来跟踪野生动物和预测余震。当然,在我们所呼吁的AI重启之路铺展开来之前,在广告、宣传、虚假新闻以及监控和军事应用等不那么善意的领域,人工智能也会取得进展。

但最终,所有这些都不过是开胃小菜而已。若干年后回望历史,真正的转折点不会是2012年深度学习的重生,而是通过常识和推理上的突破,人工智能获得对世界深刻理解的时刻。

这意味着什么?没有人知道,因为谁都无法假装自己有能力预测未来的所有分支。在1982年的电影《银翼杀手》中,世界上到处都是先进的人工智能复制人,他们看起来和人类几乎没有什么区别。然而在一个关键时刻,哈里森福特(Harrion Ford)饰演的里克狄卡(Rick Deckard)在一个公用电话前停下来打了个电话。3在现实世界中,用手机取代付费电话要比构建人类级别的人工智能容易得多,但电影摄制组中没有人预料到这个时代问题。在任何关于技术突飞猛进的预测中,无论是我们做出的还是别人做出的预测,都必然会存在一些非常明显的偏差。

但是,我们至少能以事实和推理为基础,做出一些有根据的猜测。

首先,由深度理解所驱动的人工智能,将是首款可以像孩子一样学习的人工智能,以轻松、强大而持续不断的方式扩展对世界的认识。通常情况下,它只需要接触一两个关于新概念或新情况的例子,就可以创建出一个有效的模型。同时,这个产品也将是首款可以真正理解小说、电影、报纸故事和视频的人工智能。具有深度理解能力的机器人,将能够安全地在现实世界中四处移动,实际操作各种物体和物质,识别物品的用途,并与人建立舒适而自由的互动。

计算机只要能对这个世界和我们所说的内容产生理解,就拥有了无限的可能性。首先,搜索会变得更加精准便捷。许多困扰当前技术的问题,比如“目前谁在最高法院任职”“谁是1980年最高法院年龄最大的法官”“《哈利波特》里的魂器有哪些”,对机器来说就是小菜一碟。还有很多我们现在连做梦都不敢想的问题会得到完美解答,比如编剧可以对未来的搜索引擎说:“找一个短篇故事,其中讲到某国领导人成为另一个国家的特务,用于改编电影。”天文爱好者可以提问:“下一次木星的大红斑会在什么时间出现?”而答案则会考虑到当地天气预报和天文情况。你可以告诉视频游戏,你希望自己的化身是一头穿着扎染衬衫的犀牛,而不用从一堆预先设置的选项中进行选择。你还可以让电子阅读器对你阅读过的每一本书进行跟进,并根据不同的文学体裁和作者所在的大洲,对你花在每部作品上的阅读时间进行排序。

与此同时,数字助理将能够拥有与人类助理几乎同样的工作能力,而且更大众更普惠,让所有人都能用得起,而不仅仅是为富人服务。想为1000名员工策划一次集体活动吗?具备深度理解能力的数字助理,将会完成大部分的工作,既能搞清楚需要购买什么物品,也能想明白需要给谁打电话,发提醒,将谷歌Duplex希望做到的事情囊括进来,也就是给别人打电话并进行互动交流,但不只是用预先设定的脚本来预约理发师或餐厅座位,而是能够执行规模庞大的定制化操作,过程中可能涉及数十位员工和各行各业的分包商,从主厨到摄影师全部包括在内。你的数字助理将兼任协调人和项目经理两个职责,管理上百人日程表中的一部分内容,而不仅仅关注你自己这一份。

计算机也将变得更加容易使用,从此再也不需要仔细阅读帮助菜单,也无须记住键盘快捷键。如果你想要所有的外语词汇都变成斜体,就可以直接提要求,而不用自己一个字一个字地看一遍整篇文档。想从40个不同的网页上复制40种不同的食谱,自动将所有的英制单位转换为公制单位,并将食谱中的所有原料添加量都按照做4人份的比例进行调整?你需要做的,就是直接把要求提出来,用英语也好,用其他你想用的语言也罢,而不用再去特意寻找一款拥有上述功能的应用程序。从本质上讲,我们现在用电脑做的所有那些乏味无聊的事情,都可以自动完成,根本不用那么麻烦。互联网上充斥着有关“Chrome的烦恼”和“PowerPoint的烦恼”的网页,这些问题的细节虽小,但十分重要,而企业软件开发人员却未能预见这些意外事件的发生。这些让用户大为恼火的问题都将消失。随着时间的推移,从中获得的全新的自由,将像网络搜索一样彻底改变人们的生活。而其深远的影响力,甚至会超越网络搜索。

《星际迷航》的全息甲板也将成为现实。想在基拉韦厄火山喷发时飞越上方鸟瞰全景吗?想要陪伴佛罗多去末日火山吗?只要提出要求就能做到。在《头号玩家》(Ready Player One)的著作和电影中想象出来的令人炫目的虚拟现实世界,将成为所有人都能体验到的服务。我们已经知道如何让图像达到极致的逼真,而具有深度理解能力的人工智能,也将使丰富而复杂的类人角色成为可能。就这一点而言,具备复杂心理活动的外星人也将成为可能,他们的身体构造和思维方式与我们截然不同,而人工智能则可以在此基础之上构思出这些外星人的合理选项。

与此同时,机器人管家也将变得实用,而且足够值得信赖,可以让人心无挂碍地放在家里,它们会做饭、打扫、整理、购买日用物品,甚至还能更换灯泡和擦窗户。而对于无人驾驶汽车来说,深度理解很可能也是令其拥有真正安全性的不二法宝。

随着时间的推移,令机器拥有普通人对世界的理解能力的这些技术,可以进一步得到扩展,达到人类专家的理解能力,超越基本常识,发展到科学家或医生所拥有的那种专业能力。

当这种理解能力成为现实之后,也许再过几十年,经过大量的努力,机器将能够开始进行专家级的医学诊断,分析法律案件和文件,教授复杂的科目,等等。当然,政治问题仍将存在,我们依然要想办法说服医院,让管理者认为更加优秀的人工智能从经济角度来讲是有意义的,而由机器发明出来的更加优质的能源,也需要人们真正愿意去接受。但是,只要人工智能的水平足够高,许多技术挑战都将首次被攻克。

计算机编程也将最终实现自动化,任何人的发明创造能力,无论是创业还是发明某种艺术形式,都将比现在强大得多。建筑业也将发生变化,因为机器人将能从事木匠和电工等熟练工种;新房子的建筑时间将会缩短,成本也会降低。几乎所有脏活累活和危险工作,就算需要专业知识,也将实现自动化。救援机器人和消防机器人将会得到广泛使用,出厂时就具备各种技能,从心肺复苏到水下救援无所不包。

艺术家、音乐家和各行各业的业余爱好者,也将得到人工智能助手的加持,极大提升其所在领域的覆盖面。想和机器人乐队一起练习披头士的曲子,或指挥由机器人组成的完美和谐的交响乐队吗?想和老婆一起与大威小威a的授权复制版一起来网球双打吗?没问题。想要用乐高积木搭一座一比一的城堡,还有机器人在里面比武吗?想要在下次去参加火人节活动的时候,用无人机摆出巨石阵吗?人工智能将帮助你完成其中的每一项计算任务,机器人将去做大部分的实际工作。各行各业的人们,都有能力去做他们以前从未想过的事情,每个人都可以作为整个机器人助手团队的创意总监。人们也会有更多的空闲时间,去让人工智能和机器人来承担日常生活中单调乏味的工作。

当然,整个行业的发展也不太可能齐头并进。我们很可能会在某些领域,如定量科学的特定领域,率先达到专家水平的深度理解,而其他领域的人工智能仍然在为达到儿童级水平而努力。完美的音乐助手很可能会比完美的人工智能律师助理的诞生要早很多年。

终极目标就是能够自学成才,达到任何领域专家水平的机器。我们相信,这样的机器早晚都会成为现实。

最终,软件将具备人类专家同等的灵活性与强大直觉,一旦将机器的强大计算能力和这样的软件结合起来,科学发现的速度也会大大加快。

到那一天,一台先进的计算机就能做到一整个经过严格训练的人类团队所能做到的事情,甚至能做到人类无法做到的事情。举例来说,我们无法在头脑中记住成千上万的分子之间的相互关系,更无法达到机器与生俱来的数学精准度。拥有如此高级的人工智能,我们就有可能在结合大量神经数据的基础之上,利用复杂的因果推理,来搞清楚大脑究竟是如何运转的,怎样制造出能治愈精神障碍的药物这一领域30年来几乎没取得什么进展,因为如今我们对大脑的了解实在太少。我们还有理由认为,拥有真正科学能力的人工智能,还可以帮我们设计出可用于农业和清洁能源领域的更加高效的技术。这些不可能很快实现,也不可能轻易实现,因为人工智能实在太过艰深。但一切终将实现。

并不是说我们可以从此高枕无忧。往好处看,如果彼得戴曼迪斯是正确的,那么随着自动化在各行各业的普及,物质将会极大丰富,从日用商品到电力,许多东西的价格也将越来越低。在最理想的情况下,人类会实现奥斯卡王尔德所描绘的图景:“自娱自乐,或享受有教养的闲暇……制作美丽的东西,阅读美丽的文字,或仅仅是用欣赏和快乐的眼光去观察这个世界,(用)机器……做所有必要而令人不快的工作。”

但现实一点来看,就业机会很可能会变得越来越稀缺,关于基本收入保障和收入再分配的大讨论,很可能比现在更加剑拔弩张。就算经济问题能得到解决,许多人也可能需要改变自身获取自我价值感的方式,一旦大量非技术工种发展到自动化阶段,人们需要从先前很大程度上对工作的依赖,转变到从艺术和创意写作等个人项目中寻找充实感的模式。当然,一定会有全新的工作机会,比如机器人维修,至少在一开始这项工作是很难得到自动化的,但我们不能假定新的职业将全部替代旧有职业。社会的结构将会发生很大的变化,人们的休闲时间越来越多,商品的价格越来越低,枯燥乏味的工作极大地减少,而就业机会也减少了许多,还可能会出现更大的收入不平等。我们有理由认为,人工智能的认知革命将像工业革命一样,点燃社会变革的燎原大火。有些变化是积极的,有些变化是消极的,而许多变化都是剧烈的。解决人工智能的问题并不是包治百病的万灵药,但我们认为,只要我们能在发展人工智能的道路上时刻保持明智与谨慎的态度,人工智能在科学、医学、环境和技术等领域所能做出的贡献,会令全人类在整体上向积极的方向发展。

这是否意味着,我们的后代将生活在一个物质极大丰富的世界中,将几乎所有的难题都交给机器来处理,而人类则是一副优哉游哉的闲暇状态,就像王尔德和戴曼迪斯所憧憬的那样?会生活在一个可以将自我拷贝上传到云端的世界中,就像库兹韦尔所说的那样?在想象之中才能实现的医学进步的带动下,能以伍迪艾伦更加传统的方式实现真正的永生,也就是说永远不会逝去?可以将我们的大脑与硅芯片融为一体?“技术宅男的狂欢”可能就在明天,也可能还很遥远,甚至永远不会到来。我们无从得知。

公元前600年,当泰勒斯(Thales)开始研究“电”的时候,他知道自己发现了某种意义非凡的东西,但当时的条件还不可能预料到这东西的确切用途。他肯定想不到,有朝一日,电会引发社交网络的发展,会孕育出智能手表、维基百科这样神奇的事物。由此看来,若想在当下预测出人工智能未来的发展走向,或是人工智能在千年之后,哪怕是500年之后对整个世界形成的影响,实在是夜郎自大。

我们所知道的,就是人工智能正在不断发展的过程之中,所以,我们最好尽自己最大的力量,确保接下来会发生的一切都是安全、可信、可靠的,并在我们的引导之下,让人工智能尽可能地为全人类提供帮助。

而朝这一目标前进的最佳路线,就是跳出大数据和深度学习这个框架,走向更具鲁棒性的全新的人工智能经过精心工程设计的,出厂就预装价值观、常识和对世界深度理解的人工智能。刘慈欣在《三体》中提到,即使北宋床弩的射程和机关枪差不多,但两者在基本原理上的差距决定了它们之间的不同。

十一条建议

盖瑞马库斯指出,只有建立一个全新的航道,才可能达到“可信的AI”这一目标。马库斯系统性地阐述了对当前AI研究界的批判,从认识科学领域中针对性地给出了11条可执行的建议。

第一,没有银弹破除对“终极算法”的迷信

深度学习落入了“寻找银弹”(银弹在欧洲民间传说中是吸血鬼和狼人克星,引申义为致命武器、杀手锏)的陷阱,用充满“残差项”和“损失函数”等术语的全新数学方法来分析世界,依然局限于“奖励最大化”的角度,而不去思考,若想获得对世界的“深度理解”,整个体系中还需要引入哪些东西。

神经科学告诉我们大脑是极为复杂的。真正拥有智慧和复杂性的系统,很有可能像大脑一样充满复杂性。任何一个提出将智慧凝练成为单一原则的理论,或是简化成为单一“终极算法”的理论,都将误入歧途。

第二,认知大量利用内部表征人类的认知不是从出生后的学习才开始,而是依赖于进化留下的先天表征

从严格的技术意义上讲,神经网络也具有表征,比如表示输入、输出和隐藏单元的向量,但几乎完全不具备更加丰富的内容。在经典人工智能中,知识完全是由这类表征的积累所组成的,而推理则是建立在此基础之上的。如果事实本身模糊不清,得到正确的推理就会难于上青天。外显表征的缺失,也在DeepMind的雅达利游戏系统中造成了类似的问题。DeepMind的雅达利游戏系统之所以在《打砖块》这类游戏的场景发生稍许变化时便会崩溃,原因就在于它实际上根本不表征挡板、球和墙壁等抽象概念。

没有这样的表征,就不可能有认知模型。没有丰富的认知模型,就不可能有鲁棒性。你所能拥有的只是大量的数据,然后指望着新事物不会与之前的事物有太大的出入。当这个希望破灭时,整个体系便崩溃了。

在为复杂问题构建有效系统时,丰富的表征通常是必不可少的。DeepMind在开发以人类(或超人)水平下围棋的AlphaGo系统时,就放弃了先前雅达利游戏系统所采用的“仅从像素学习”的方法,以围棋棋盘和围棋规则的详细表征为起步,一直用手工的机制来寻找走棋策略的树形图和各种对抗手段。

第三,抽象和概括在认知中发挥着至关重要的作用

我们的认知大部分是相当抽象的。例如,“X是Y的姐妹”可用来形容许多不同的人之间的关系:玛利亚奥巴马是萨沙奥巴马的姐妹,安妮公主是查尔斯王子的姐妹,等等。我们不仅知道哪些具体的人是姐妹,还知道姐妹的一般意义,并能把这种知识用在个体身上。比如,我们知道,如果两个人有相同的父母,他们就是兄弟姐妹的关系。如果我们知道劳拉英格斯怀德是查尔斯英格斯和卡罗琳英格斯的女儿,还发现玛丽英格斯也是他们的女儿,那么我们就可以推断,玛丽和劳拉是姐妹,我们也可以推断:玛丽和劳拉很可能非常熟识,因为绝大多数人都和他们的兄弟姐妹一起生活过;两人之间还可能有些相像,还有一些共同的基因特征;等等。

认知模型和常识的基础表征都建立在这些抽象关系的丰富集合之上,以复杂的结构组合在一起。人类可以对任何东西进行抽象,时间(“晚上10:35”)、空间(“北极”)、特殊事件(“亚伯拉罕林肯被暗杀”)、社会政治组织(“美国国务院”“暗网”)、特征(“美”“疲劳”)、关系(“姐妹”“棋局上击败”)、理论(“马克思主义”)、理论构造(“重力”“语法”)等,并将这些东西用在句子、解释、比较或故事叙述之中,对极其复杂的情况剥丝抽茧,得到最基础的要素,从而令人类心智获得对世界进行一般性推理的能力。

第四,认知系统是高度结构化的

我们可以预期,真正的人工智能很可能也是高度结构化的,在应对给定的认知挑战时,其大部分能力也将源自在正确的时间以正确的方式对这种结构进行利用。具有讽刺意味的是,当前的趋势与这样的愿景几乎完全相反。现在的机器学习界偏向于利用尽可能少的内部结构形成单一同质机制的端到端模型。

在某种程度上,这样的系统从概念上来看更简单,用不着为感知、预测等分别设计单独的算法。而且,初看起来,该模型大体上效果还算理想,有一部令人印象深刻的视频似乎也证明了这一点。那么,既然用一个庞大的网络和正确的训练集就能简单易行地达到目标,为什么还要将感知、决策和预测视为其中的独立模块,然后费心费力地建立混合系统呢?

问题就在于,这样的系统几乎不具备所需的灵活性。

在关键的应用场景中,最优秀的AI研究人员致力于解决复杂问题时,常常会使用混合系统,我们预期,这样的情况在未来会越来越多。AI和大脑一样,必须要有结构,利用不同的工具来解决复杂问题的不同方面。

第五,即便是看似简单的认知,有时也需要多种工具

大脑也利用几种不同的模式来处理概念,利用定义,利用典型特征,或利用关键示例。我们经常会同时关注某个类别的特征是什么,以及为了令其满足某种形式的标准,必须符合什么条件。

AI面临的一个关键挑战,就是在捕捉抽象事实的机制(绝大多数哺乳动物是胎生)和处理这个世界不可避免的异常情况的机制(鸭嘴兽这种哺乳动物会产卵)之间,寻求相对的平衡。通用人工智能既需要能识别图像的深度学习机制,也需要能进行推理和概括的机制,这种机制更接近于经典人工智能的机制以及规则和抽象的世界。

要获得适用范围更广的AI,我们必须将许多不同的工具组织在一起,有些是老旧的,有些是崭新的,还有一些是我们尚未发现的。

第六,人类思想和语言是由成分组成的

在乔姆斯基看来,语言的本质,用更早期的一位语言学家威廉冯洪堡(Wilhelm vonHumboldt)的话来说,就是“有限方法的无限使用”。借有限的大脑和有限的语言数据,我们创造出了一种语法,能让我们说出并理解无限的句子,在许多情况下,我们可以用更小的成分构造出更大的句子,比如用单词和短语组成上面这句话。如果我们说,“水手爱上了那个女孩”,那么我们就可以将这句话作为组成要素,用在更大的句子之中,“玛丽亚想象水手爱上了那个女孩”,而这个更大的句子还可以作为组成要素,用在还要大的句子之中“克里斯写了一篇关于玛丽亚想象水手爱上了那个女孩的文章”,以这样的方式接着类推,每一句话我们都可以轻松理解。

神经网络先驱学者杰弗里欣顿一直在为他提出的“思维向量”而发声。在深度学习中,每个输入和输出都可以被描述为一个向量,网络中的每个“神经元”都为相关向量贡献一个数字。由此,许多年以来,机器学习领域的研究人员一直试图将单词以向量的形式进行编码,认为任何两个在意义上相似的单词都应该使用相似的向量编码。

类似的技术被谷歌所采用,并体现在了谷歌最近在机器翻译方面取得的进展之中。那么,为什么不以这种方式来表征所有的思想呢?

因为句子和单词不同。我们不能通过单词在各类情况下的用法来推测其意思。例如猫的意思,至少与我们听说过的所有“猫”的用法的平均情况有些许相似,或(从技术角度讲)像是深度学习系统用于表征的矢量空间中的一堆点。但每一个句子都是不同的:John iseasy to please(约翰很好哄)和John iseager to please(约翰迫不及待的想要取悦别人)并不是完全相似的,虽然两句话中的字母乍看去并没有多大区别。John is easy to please和John is not easy toplease的意思则完全不同。在句子中多加一个单词,就能将句子的整个意思全部改变。深度学习在没有高度结构化句子表征的情况下工作,往往会在处理细微差别时遇到问题。

这个例子告诉我们:统计数字经常能近似地表示意义,但永远不可能抓住真正的意思。如果不能精准地捕捉单个单词的意义,就更不能准确地捕捉复杂的思想或描述它们的句子。

第七,对世界的鲁棒理解,既需要自上向下的知识,也需要自下而上的信息

看一看这幅图片。这是个字母,还是个数字?

认知心理学家将知识分为两类:自下而上的信息,是直接来自我们感官的信息;还有自上而下的知识,是我们对世界的先验知识,例如,字母和数字是两个不同的类别,单词和数字是由来自这些类别之中的元素所组成的,等等。这种模棱两可的B/13图像,在不同的上下文中会呈现出不同的面貌,因为我们会尝试着将落在视网膜上的光线与合乎逻辑的世界相结合。

找到一种方法将自下而上和自上而下两者整合为一体,是人工智能的当务之急,却常常被人忽视。

人类对任何一个概念的认知,都取决于概念出现的上下文和其所属的理论框架。识别出不同的应用场景,不仅可以显著减少所需数据,还能够让AI变得更加可信任。如果AI可以区分画中的一把刀和真实场景下的刀,就可以做出不同的反应。

同时,人类会对每个事物和人的个体分别进行持续的观察和跟踪,以此来将不同时间点的数据进行统一的分析。这也是AI需要向人类学习的方式。

第八,概念嵌于理论之中

嵌入在理论中的概念对有效学习至关重要。假设一位学龄前儿童第一次看到鬣蜥的照片。从此之后,孩子们就能认出其他照片上的、视频中的和现实生活中的鬣蜥,而且准确率相当高,很容易就能将鬣蜥与袋鼠甚至其他蜥蜴区分开来。同样,孩子能够从关于动物的一般知识中推断出,鬣蜥会吃东西,会呼吸,它们生下来很小,会长大,繁殖,然后死去,并意识到可能有一群鬣蜥,它们看起来或多或少都有些相似,行为方式也相似。

没有哪个事实是一座孤岛。通用人工智能若想获得成功,就需要将获取到的事实嵌入到更加丰富的、能帮助将这些事实组织起来的高层级理论之中。

第九,因果关系是理解世界的基础

深度学习能否成功,在尝试之前是无法确证的,AlphaGo的设计者在设计之初也不确定能否取得如今的成绩,毕竟深度学习能够找到的规律只是相关性,而非因果性。

围棋的棋盘形式和游戏规则构成了一个相对简单的因果模型,只有胜负的结果和单一的时间颗粒度,影响胜负的因素只有自己如何下棋。因此,和赢棋相关的走法,就等同于导致AI更强的算法改进。

但现实中,尤其是在2B的应用场景下,AI需要在多维度和长时间尺度下,做出同时满足多种评价标准的决策,此时相关性就不等同于因果性。

第十,我们针对逐个的人和事件进行跟进

你的另一半以前当过记者,喜欢喝白兰地,不那么喜欢威士忌。你的女儿以前特别害怕暴风雨,喜欢吃冰激凌,没那么喜欢吃曲奇饼。你车子的右后门被撞了个小坑,一年前你更换了车子的变速器。街角那家小商店,以前卖的东西质量特别好,后来转手给新老板之后,东西的质量就一天不如一天。我们对世界的体验,是由许多持续存在、不断变化的个体组成的,而我们的许多知识,也是围绕着这些个体事物而建立起来的。不仅包括汽车、人物和商店,还包括特定的实体,及其特定的历史和特征。

奇怪的是,这并非深度学习与生俱来的观点。深度学习以类别为重点,而不以个体为重点。通常情况下,深度学习善于归纳和概括:孩子都喜欢吃甜食,不那么喜欢吃蔬菜,汽车有四个轮子。这些事实,是深度学习系统善于发现和总结的,而对关于你的女儿和你的车子的特定事实,则没什么感觉。

第十一,复杂的认知生物体并非白板一块

人工智能要获得真正的进步,首先要搞清楚应该内置何种知识和表征,并以此为起点来启动其他的能力。

我们整个行业,都需要学习如何利用对实体对象的核心理解来进一步了解世界,在此基础之上构建起系统,而不是单纯凭借像素和行为之间的相关性来学习一切,以此为系统的核心。我们所谓的“常识”,大部分是后天习得的,比如钱包是用来装钱的、奶酪可以打成碎屑,但几乎所有这些常识,都始于对时间、空间和因果关系的确定感知。所有这一切的基础,可能就是表征抽象、组合性,以及持续存在一段时间(可以是几分钟,也可以是数十年)的对象和人等个体实体的属性的内在机制。如果机器想要学习尚无法掌握的东西,那么从一开始就需要拥有这样的基矗

[书籍内容简介]

l 当下的AI存在哪些风险?真的有可信的AI吗?

理想的AI与现实的AI之间究竟存在哪些差距?

如何构建人类和AI之间的信任?

关于人工智能的炒作总是甚嚣尘上,但要得到真正可信的AI,却远比想象的要复杂得多,超级智能的时代还远没有到来。创造真正可信的AI需要赋予机器常识和深度理解,而不是简单地统计分析数据。本书勾勒了未来人工智能发展的最佳路线图,对当前人工智能的现状进行了清晰且客观的评估。

l 作者盖瑞马库斯是人工智能领域的专家,同时还是心理学和神经科学教授,在计算机科学、认知科学、语言学、人工智能等领域都练就了相当深厚的学术功底,并敢于挑战学术界的主流观点。当整个人工智能学术界都在过分乐观地高歌猛进时,他不断撰文和发表演讲来指出以深度学习为代表的当下AI的弊端和局限性,《如何创造可信的AI》这本书正是马库斯对他关于人工智能观点的最佳总结。

l 盖瑞马库斯和欧内斯特戴维斯从深度学习算法固有的缺陷出发,阐述了当下 AI 技术发展的桎梏,对当前 AI 的场景应用和研究范式中的问题进行了分析,他指出AI真正的问题在于信任,常识才是深度理解的关键。最终从认知科学中提炼出了11条对人工智能发展方面的启示,以通用人工智能为发展目标,给出了未来 AI 技术的一种发展方向。

历史精华好文

交流合作

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港