展会信息港展会大全

人类不必担忧强人工智能的发展
来源:互联网   发布日期:2020-11-29 07:13:17   浏览:28350次  

导读:如今,很多人担心人工智能技术会发展成为邪恶的机器人,甚至达到主导世界的地步。但是不要害怕,这种情况不会发生。 人工智能已经进入了人们的工作和日常生活中。它正在推动医学、天气预报、工厂自动化、自动驾驶汽车等各行业的进步。甚至高尔夫俱乐部制造商...

如今,很多人担心人工智能技术会发展成为“邪恶的机器人”,甚至达到主导世界的地步。但是不要害怕,这种情况不会发生。

人类不必担忧强人工智能的发展

人工智能已经进入了人们的工作和日常生活中。它正在推动医学、天气预报、工厂自动化、自动驾驶汽车等各行业的进步。甚至高尔夫俱乐部制造商也采用人工智能技术设计球杆。

其实人们每天都在与人工智能互动。谷歌翻译帮助人们浏览国外网站,并与不同国籍的人员交谈。人工智能供应商已将语音识别功能内置到许多应用程序中。人们每天使用Siri和Alexa等语音助理来帮助完成简单的任务。人脸识别应用程序自动为照片添加标签,人工智能系统在诸如围棋和德州扑克之类的复杂游戏中击败了专业游戏玩家,此外工厂的机器人替代工作人员实施重复性工作。

人工智能的最新进展使人们知道未来将将何去何从。科幻小说作家数十年来一直在思考这个问题。在有些人描述的未来世界中,将会出现功能强大并且友善的智能机器人,例如《星球大战》电影中的C3PO机器人。也有人则将智能机器人描述成既不友善也不邪恶,而是具有人类般的弱点,例如西方世界的类人机器人,这种机器人有着自己的意识和情感,不愿意被人类奴役。尽管如此,在其他作家的作品中,也有与人类为敌的“邪恶的机器人”,例如电影《2001年的哈尔:太空漫游》和电影《终结者》中的智能机器人。

人们对于人工智能可能存在潜在危险的猜测并不局限在科幻小说领域。许多权威技术专家预测,随着人工智能系统变得越来越智能,机器人最终将主导整个世界。特斯拉公司创始人埃隆马斯克表示,人工智能是人类的“最大的生存威胁”,它对文明的存在构成了根本性的风险。而已故著名物理学家斯蒂芬霍金曾说:“这可能预示着人类的终结。”人类未来研究所创始人、哲学家尼克博斯特罗姆认为,人工智能构成了人类有史以来最大的威胁,其威胁甚至大于核武器。

人工智能与狭义人工智能

这些技术专家和科幻小说作家所担心的人工智能系统都是强人工智能(人工通用智能,AGI)的例子。强人工智能(人工通用智能,AGI)系统与人类有着共同的能力:推理,处理视觉、听觉和其他输入,并能适应各种环境。这些系统和人类一样,对各种各样的事件和话题有着丰富的知识和交流能力。

科幻小说虚构的强人工智能系统(即虚构的邪恶机器人)与当今的人工智能系统相比有两个显著的区别:首先,当今的每个人工智能系统只能执行比较狭义的任务。例如学会给照片命名的人工智能系统不能做其他任何事情,甚至无法区分狗和大象。它不能回答问题、检索信息或进行对话。其次,当今的人工智能系统对于世界几乎没有常识性的知识,因此不能基于这些知识进行推理。例如,面部识别系统可以识别特定的人物,但对其他人一无所知。它不会像人类那样能够看到或听到,也不像人类那样进食、睡觉,工作,更不会犯罪或坠入爱河。

当今的人工智能系统都是狭义的人工智能系统,这个术语是由未来主义专家雷库兹韦尔在2005年提出的,用来描述这些区别:机器人只能执行一个特定的任务。虽然狭义人工智能系统的性能可以使它们看起来很智能,但事实并非如此。

相比之下,人类和虚构的智能机器人可以执行大量不同的任务。他们不仅认得人脸,还可以读报、做饭、系鞋带、讨论时事,以及执行许多其他任务。虚构的智能机器人也基于人类对世界的常识进行推理,将常识、经验和背景知识应用于各种各样的任务中。例如,当人类从柜子里拿出一个玻璃杯时,就会利用所知的重力知识,并且知道如果抓得不够紧,玻璃杯就会从手中掉下来。人类并不是从重力的定义或数学方程式中的描述中获得知识,而是在现实生活的经验中无意识获得知识。人们每天都用这些知识来完成很多其他的任务。

新的人工智能范例

人们面临的最大的问题是,如今的狭义人工智能系统是否会演变成具有人类智能的智能机器人,这种智能系统可以使用常识推理来执行许多不同的任务。

当今大多数突破性的人工智能系统都使用一种名为“监督学习”的机器学习形式,其目的是学习一种可以从信息输入中识别输出类别的功能。例如,面部识别系统将图像作为输入,并识别图中人员的名字。“强化学习”也是如此,其目标是学习可以预测给定状态的最佳动作的功能。

多伦多大学机器学习专家杰弗里 辛顿表示,他对当前的模式(包括监督学习、强化学习和自然语言处理)是否会导致强人工智能(以及科幻小说中的邪恶机器人)产生怀疑。辛顿建议,要采用人工智能,可能需要抛弃目前占主导地位的监督学习范例。Facebook公司首席人工智能科学家Yann LeCu还表示,监督学习和强化学习永远不会创建强人工智能,因为它们不能用于创建对世界有常识的系统。

一些人工智能研究人员开始探索一些新的方法。在评估这些新方法的可行性时,必须记住,对狭义人工智能成就的热情不应转化为对这些新方法的乐观想法,因为现有的狭义人工智能方法在构建强人工智能系统方面将面临一条死胡同。

像人类一样学习

很多研究人员将人类的学习描述为组合性学习:学习许多技能,然后将它们组合起来学习新技能。人类将学习有关世界的概念、规则和知识,这些技能将随着人们学习执行不同任务而转移。这些研究人员认为,常识性人工智能推理(以及人工智能和邪恶机器人)的关键在于构建像人类一样可以组合性学习的人工智能系统。这个想法是让人工智能系统学习作为构建块的概念和规则,使其能够学习更高层次的概念和更高层次的规则。

人们对这种方法的最大担忧是,人工智能系统在理解人类如何获得常识性知识方面的进展很缓慢。四十年前,就人工智能系统能否回答“德国牧羊犬的耳朵是什么形状”这样的问题进行了长时间的辩论。尽管人工智能和认知科学领域的一些权威人士参加了分析和辩论,但仍然没有确切的答案。人工智能能否回答有关狗耳朵形状的问题,只是大量的代表性方案和推理过程的其中之一。而且,人们甚至都不知道这些方案和推理过程是天生的还是后天的。五十多年来,这一直是学术辩论中持续讨论的话题,目前尚无定论。

那么要多久才能了解人们如何看待人工智能和邪恶机器人的真正进展?按照目前的进展速度,也许需要几千年,也许可能永远不会发生。

深度学习

一些研究人员认为,尽管监督学习和强化学习本身是构建人工智能系统的死胡同,但深度学习可能将人们带到目的地。Yann Lecun和Greg Brockman都提出了扩展无监督学习系统的想法,希望能够神奇地获取有关常识并学习基于该知识的推理。

GPT-3系统是可扩展性一个很好的例子,其能力比GPT-2系统强出100倍,而GPT-2系统本身比GPT原始系统强出10倍。GPT-2系统表现出令人惊讶的能力,可以产生人类的声音(即使不是始终连贯的),而GPT-3系统可以产生更好的结果。开发GPT系统的OpenAI研究人员认为这是一种新兴功能,这是由于扩大网络规模而产生的。

GPT-3系统无疑具有提取其训练文本的统计规律性的强大能力,也可能具有记忆小片段文本的能力。但是,它没有学习有关常识的能力,也没有基于这种知识获得推理的能力。在这个阶段,没有证据表明可以从这种方法中学习常识和推理技能,也没有任何理由相信它会发生。

Yoshua Bengio提出了新颖的深度学习架构,旨在使用深度学习突破狭义人工智能的局限性。其中一个目标是学习更高层次的构建块,可以帮助人工智能系统进行组合学习。这是一个有趣的想法。

模拟人脑

行业专家提出的另一种强人工智能方法是了解人脑物理结构,并在其之后建立人工智能系统的模型。经过几十年的研究,人们对人类大脑如何处理信息只知道一些非常基本的事实。例如,人们知道大脑皮层可以静态和动态地存储所学知识,基底神经节处理各种目标,并通过强化学习来选择信息,而边缘脑结构连接大脑和身体并产生动机、情感和事物的价值。

在大脑中建立神经元模型的想法已经提出了40多年,但现在还没有获得真正的吸引力,部分原因是在理解人脑方面进展极为缓慢,在人工智能程序中没有具体的方法来模拟人们所知道的人脑。在这里似乎又回到了起点,没有证据表明这种方法会成功。

速度更快的计算机

技术未来主义者雷库兹韦尔一直认为,人工智能将作为更大、更快的计算机的副产品而出现。他提出了“奇点”这一理念,这是计算机能够自己智能地改进程序的一个时间点。他指出,一旦发生这种情况,人工智能系统的智力将以指数级的速度增长,将很快达到超人的智力水平。库兹韦尔预测,“奇点”将在2045年左右出现。

也就是说,很难想象处理能力本身如何能够创造强人工智能。无论是使用上世纪70年代还是当今天先进的没有加载任何程序的计算机,这些计算机都无法执行任何操作。如果在这两种计算机上都加载一个字处理程序,那么都只能执行字处理。更新、更现代化的计算机将能够更快地响应和处理更大的文档,但它们仍然只能进行文字处理。未来的计算机也是这样。

处理速度更快的计算机本身不会产生人工智能。正如Steven Pinker所说,“更强的处理能力并不是解决所有问题的灵丹妙药。”在强人工智能不太可能实现的情况下,编程和学习算法可能会非常复杂,以至于需要功能非常强大的计算机。

强人工智能能够实现吗?

狭义的人工智能系统背后的技术无法发展到“邪恶的机器人”。对于如何实现强人工智能,业界提出一些想法,但这些想法并不明确。自从上世纪50年代末以来,人工智能研究人员对如何创建强人工智能提出了多种理念,但没有人能够获得成功,也没有证据表明现在的想法会更好。

艾伦人工智能研究所的首席执行官Oren Etzion表示,对实现强人工智能的乐观和恐惧都源于狭义人工智能系统的成功。这种对狭义人工智能的乐观情绪自然蔓延到了对强人工智能前景的乐观。

人们可能并不会在有生之年发生时间之旅。可能会幻想,科技将让人类进入冬眠或隐身状态,或者通过心灵传送将人类的思想输入到电脑中,甚至逆转人类衰老过程。如果是这样,那么人们应该把人工智能和“邪恶的机器人”归为同类。

原文标题:Don't Fear Artificial General Intelligence,作者:Steve Shwartz

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港