展会信息港展会大全

【专栏】为什么AI无法解决未知问题
来源:互联网   发布日期:2021-04-01 07:21:11   浏览:35382次  

导读:我们什么时候才能有强人工智能,那种人工智能,可以模仿人的头脑中的所有方面?专家们在这个话题上意见分歧,答案范围在几十年到永不之间。 但是,每个人都同意的是,当前的AI系统与人类智能相去甚远。人类可以探索世界,发现未解决的问题,并思考解决方案。...

【专栏】为什么AI无法解决未知问题

我们什么时候才能有强人工智能,那种人工智能,可以模仿人的头脑中的所有方面?专家们在这个话题上意见分歧,答案范围在几十年到永不之间。

但是,每个人都同意的是,当前的AI系统与人类智能相去甚远。人类可以探索世界,发现未解决的问题,并思考解决方案。同时,人工智能工具箱会随着算法的发展而增长,这些算法可以执行特定任务,但无法在狭窄的范围内推广其功能。我们提供的程序可以在《星际争霸》中击败世界冠军,但在业余水平上却不能玩稍有不同的游戏。我们拥有人工神经网络,可以在乳房X线照片中找到乳腺癌的征兆,却无法分辨猫和狗之间的区别。我们有复杂的语言模型 每小时可以旋转数千个看似连贯的文章,但是当您向他们询问有关世界的简单逻辑问题时,它们就会开始崩溃。

【专栏】为什么AI无法解决未知问题

赫伯特罗伊布拉特(Herbert Roitblat)的“算法还不够”

简而言之,我们的每种AI技术都可以复制我们对人类智能的了解的某些方面。但是,将所有这些放在一起并填补空白仍然是一个重大挑战。数据科学家赫伯特罗伊特布拉特(Herbert Roitblat)在他的《算法还不够》一书中对AI的不同分支进行了深入的回顾,并描述了为什么每个分支都无法实现创建通用智能的梦想。

Roitblat讨论说,所有AI算法的共同缺点是需要预定义的表示形式。一旦发现问题并以可计算的方式表示问题,我们就可以创建可以解决问题的AI算法,通常比我们自己更有效。但是,仍然没有解决的问题是未被发现和无法代表的问题。

象征性AI的表示形式

在人工智能的整个历史中,科学家定期发明新的方法来利用计算机的先进技术以巧妙的方式解决问题。早期的AI专注于符号系统。

AI的这一分支假设人类思维基于符号的操纵,并且任何可以计算符号的系统都是智能的。符号AI要求人类开发人员精心指定规则,事实和结构,这些规则,事实和结构定义了计算机程序的行为。符号系统可以执行出色的功能,例如记忆信息,以超快的速度计算复杂的数学公式以及模仿专家的决策。流行的编程语言和我们每天使用的大多数应用程序都源于对符号AI所做的工作。

但是象征性AI只能解决我们可以提供格式正确的分步解决方案的问题。问题在于,人类和动物执行的大多数任务无法以明确的规则来表示。

“智力任务,例如下棋,化学结构分析和演算,相对容易在计算机上执行。Roitblat在《算法还不够》中写道,即使是一岁大的人或老鼠,所能进行的活动也要困难得多。

这被称为“莫拉韦克悖论”,以科学家汉斯莫拉韦茨(Hans Moravec)的名字命名。他说,与人类相反,计算机可以轻松完成高级推理任务,但会在人类和动物自然习得的简单技能上挣扎。

“人类的大脑已经发展了数百万年的进化机制,使我们能够执行基本的感觉运动功能。Roitblat写道:“我们接球,认出面孔,判断距离,这一切似乎都不费劲。“另一方面,智力活动是最近的发展。我们可以通过大量的努力和经常的培训来执行这些任务,但是如果我们认为这些能力是创造智力的原因,而不是智力使那些能力成为可能,我们就应该感到怀疑。”

因此,尽管符号AI具有卓越的推理能力,但它与人类提供的表示严格相关。

机器学习中的表示形式

【专栏】为什么AI无法解决未知问题

机器学习为AI提供了另一种方法。工程师无需编写明确的规则,而是通过示例“训练”机器学习模型。“ [机器学习]系统不仅可以执行其专门编程的操作,而且还可以将其功能扩展到以前未曾见过的事件,至少是在一定范围内的事件,” Roitblat在《算法不足》中写道。

机器学习的最流行形式是监督学习,其中在一组输入数据(例如,湿度和温度)和预期结果(例如,下雨的概率)上训练模型。机器学习模型使用此信息来调整将输入映射到输出的一组参数。当出现以前看不见的输入时,训练有素的机器学习模型可以非常精确地预测结果。不需要明确的if-then规则。

但是有监督的机器学习仍然建立在人类智能提供的表示之上,尽管它比符号AI更宽松。Roitblat描述监督学习的方式是这样的:“机器学习涉及要解决的问题的表示形式,该问题要设置为三组数字。一组数字代表系统接收的输入,一组数字代表系统产生的输出,而第三组数字代表机器学习模型。”

因此,尽管有监督的机器学习并不像符号AI那样紧密地绑定到规则,但它仍然需要由人类智能创建的严格表示。操作员必须定义一个特定的问题,整理训练数据集并标记结果,然后才能创建机器学习模型。只有以自己的方式严格表示了问题,模型才能开始调整其参数。

“表示是由系统设计者选择的,” Roitblat写道。“在许多方面,表示形式是设计机器学习系统的最关键部分。”

机器学习的一个分支在过去十年中日益普及,它是深度学习,通常将其与人脑相提并论。深度学习的核心是深度神经网络,该网络将简单的计算单元逐层堆叠以创建机器学习模型,该模型可以执行非常复杂的任务,例如对图像进行分类或转录音频。

深度学习模型可以执行复杂的任务,例如对图像进行分类(来源:http : //www.deeplearningbook.org)

但同样,深度学习很大程度上取决于体系结构和表示形式。大多数深度学习模型都需要标记数据,并且没有通用的神经网络架构可以解决所有可能的问题。机器学习工程师必须首先定义他们要解决的问题,整理大量的训练数据集,然后找出可以解决该问题的深度学习架构。在训练期间,深度学习模型将调整数百万个参数,以将输入映射到输出。但是仍然需要机器学习工程师来决定层的数量和类型,学习率,优化函数,损失函数以及神经网络的其他不可学习的方面。

“就像很多机器智能一样,(深度学习)的真正天才来自系统的设计方式,而不是来自其自身的任何自主智能。Roitblat写道:“聪明的表示法,包括聪明的体系结构,都使聪明的机器智能化了。” 深度学习网络通常被描述为学习自己的表示形式,但这是不正确的。网络的结构决定了它可以从输入中得到什么表示。对于深度学习网络和任何其他机器学习系统来说,它如何表示输入以及如何表示解决问题的过程都是如此。”

机器学习的其他分支遵循相同的规则。例如,无监督学习不需要标记示例。但它仍然需要一个明确的目标,比如网络安全异常检测,客户细分市场营销,降维,或嵌入表示。

强化学习是机器学习的另一个流行分支,与人类和动物智能的某些方面非常相似。AI代理不依赖标记的示例进行培训。取而代之的是,给它一个环境(例如国际象棋或棋盘)可以执行的一组动作(例如,移动棋子,放置石头)。在每个步骤中,代理都会执行操作并以奖励和惩罚的形式从其环境接收反溃通过反复试验,强化学习代理发现产生更多奖励的动作序列。

计算机科学家理查德萨顿(Richard Sutton)将强化学习描述为“第一个智能计算理论”。近年来,它已广泛用于解决复杂的问题,例如掌握计算机和棋盘游戏以及开发通用的机械手臂和手。

【专栏】为什么AI无法解决未知问题

强化学习可以解决诸如玩棋盘和视频游戏以及机器人操纵之类的复杂问题。

但是强化学习环境通常非常复杂,并且座席可以执行的可能动作数量非常大。因此,强化学习代理需要大量的人力资源帮助来设计正确的奖励,简化问题并选择正确的体系结构。例如,掌握在线视频游戏DotA 2的强化学习系统OpenAI Five依靠其设计师简化了游戏规则,例如减少了可玩角色的数量。

Roitblat写道:“在琐碎的系统中,不可能检查所有可能导致报酬的可能行动的所有可能组合,” Roitblat写道。“与其他机器学习情况一样,即使无法保证能够产生最佳答案,也需要启发式方法将问题简化为更易于处理的问题。”

Roitblat总结了算法中的不足,这是当前AI系统的不足之处:“当前的人工智能方法行之有效,因为他们的设计人员已经弄清楚了如何构造和简化问题,以便现有的计算机和流程可以解决这些问题。为了拥有真正的通用情报,计算机将需要具有定义和构造自己的问题的能力。”

人工智能研究是否朝着正确的方向前进?

【专栏】为什么AI无法解决未知问题

“每个分类器(实际上是每个机器学习系统)都可以用表示形式,衡量其成功的方法以及更新的方法来描述,” Roitblat在电子邮件中告诉TechTalks。“学习是通过一系列参数值找到一条路径(一系列更新)。不过,到目前为止,我们还没有任何方法来生成这些表示,目标和优化。”

为了解决当前AI系统的挑战,人们进行了各种努力。一种流行的想法是继续扩展深度学习。一般的理由是,更大的神经网络最终将破解通用情报的代码。毕竟,人脑具有超过100万亿个突触。迄今为止,由Google的AI研究人员开发的最大的神经网络具有1万亿个参数。证据表明,向神经网络添加更多的层和参数会产生渐进的改进,尤其是在诸如GPT-3的语言模型中。

但是大型神经网络无法解决通用情报的基本问题。

Roitblat说:“这些语言模型是重要的成就,但它们并不是一般性的知识。” “本质上,他们为语言中的单词序列建模。他们是具有抽象层的with窃者。给它一个提示,它将创建一个文本,该文本具有已阅读页面的统计属性,但与该语言无关。它解决了一个特定的问题,就像当前所有的人工智能应用一样。这就是它所宣传的语言模型。那不是什么,但不是一般情报。”

其他研究方向试图在当前的AI结构上增加结构上的改进。

例如,混合人工智能将符号AI和神经网络结合在一起,以结合前者的推理能力和后者的模式识别能力。混合AI已经有好几种实现方式,也称为“神经符号系统”,它们显示出与纯神经网络方法相比,混合系统需要较少的训练数据并且在推理任务上更加稳定。

【专栏】为什么AI无法解决未知问题

赫伯特罗伊特布拉特(Herbert Roitblat),数据科学家,《算法还不够》的作者(图片来源:约西亚格兰德菲尔德)

系统2深度学习是深度学习先驱Yoshua Bengio提出的另一个研究方向,它试图使神经网络超越统计学习。系统2深度学习旨在使神经网络能够学习“高级表示”,而无需明确嵌入符号智能。

另一项研究工作是自我监督学习,这是另一位深度学习先驱,卷积神经网络的发明者Yann LeCun提出的。自我监督学习的目的是学习任务,而无需标签数据,并像孩子一样探索世界。

Roitblat说:“我认为所有这些都可以使功能更强大的问题解决者(用于路径问题),但是它们都没有解决如何构造或生成这些解决方案的问题。” “它们都仍然涉及在预先构造的空间中导航。他们都没有解决这个空间来自何处的问题。我认为这些是非常重要的想法,只是它们没有解决从狭义的情报向一般情报转变的特定需求。”

Roitblat在“算法还不够”中提供了有关寻找内容的想法,以推进可以主动寻找和解决尚未设计的问题的AI系统。我们还有很多要向我们学习的知识,以及我们如何在世界上运用我们的智慧。

Roitblat写道:“有才华的人可以识别问题的存在,定义问题的性质并表示问题。” “他们可以识别缺乏知识的地方,并努力获取知识。尽管聪明的人可以从结构化的指令中受益,但他们也能够寻找自己的信息来源。”

但是观察聪明的行为要比创造它容易,而且,正如罗伊布拉特在我们的书信中告诉我的那样,“人类并不总是以说/认为自己的方式解决问题。”

但是,随着我们继续探索人工智能和人类智能,我们将一步一步地朝着AGI迈进。

“人工智能是一项正在进行的工作。一些任务比其他任务前进了更多。有些人还有路要走。人工智能的缺陷往往是其创造者的缺陷,而不是计算决策的固有属性。我希望它们会随着时间的推移而改善。” Roitblat说。


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港