展会信息港展会大全

凯文凯利解读AI崇拜:超级人工智能是个神话
来源:互联网   发布日期:2017-05-06 08:18:31   浏览:117194次  

导读:近日,Wired杂志主编凯文凯利(Kevin Kelly)在自媒体上撰文,用长篇文字解释了最近提及的人工智能可能只是一个神话而已,网易智能进行了全文编译: 我听说未来的电脑会比我们聪明得多,他们会拿走我们所有的工作和资源,人类将走向灭亡。这是真的吗? 这是...

凯文凯利解读AI崇拜:超级人工智能是个神话

近日,Wired杂志主编凯文凯利(Kevin Kelly)在自媒体上撰文,用长篇文字解释了最近提及的人工智能可能只是一个神话而已,网易智能进行了全文编译:

我听说未来的电脑会比我们聪明得多,他们会拿走我们所有的工作和资源,人类将走向灭亡。这是真的吗?

这是我在谈论人工智能的时候最常遇到的问题。问问题的人是认真的,他们的担忧部分来自于一些专家,这些专家也在问自己同样的问题。这些专家是存于现世的最聪明的人,比如斯蒂芬霍金、埃隆马斯克、马克斯泰格马克、萨姆哈里斯和比尔盖茨,他们相信这种情况很可能成真。

最近,在一个讨论人工智能问题的会议上,一个由9位人工智能专家组成的专家小组一致认为,这种超人智能的出现是不可避免的,而且不会遥远。

然而,在这种超人智能掌管一切的情景中,隐藏着五个假设,在仔细研究后,这些假设并没有任何证据作为凭借。这些说法在未来可能是正确的,但目前还没有证据支持这些说法。

一个超级人工智能的产生的假设是:

1、人工智能已经以指数级的速度变得比我们聪明了。

2、我们会把人工智能变成一个万能智能,就像我们自己的智能一样。

3、我们可以用硅来制造人类智能。

4、智能可以无限制地扩张。

5、一旦我们的超级智能全面应用,它就能解决我们大部分的问题。

与这种正统观念不同的是,我发现以下五种异见有更多证据作为支撑:

1、智能不是一个维度,所以“比人类更聪明”是一个毫无意义的概念。

2、人类没有万能的头脑,人工智能也不会有。

3、在其他媒介上对人类思维进行模仿将受到成本的约束。

4、智能的维度不是无限的。

5、智能只是进步的因素之一。

如果对超人智能掌管一切的预期是基于没有证据基础的五个关键性假设,那么这个想法就更类似于一个宗教信仰,一个神话。在接下来的几段中,我扩展了这五种假设反命题的证据,并证明,超人类的人工智能的的确确是一种神话。

一、关于人工智能最普遍的误解始于对自然智能的普遍误解

这种误解是:智能是一个单一维度。大多数技术人员倾向于像尼克波斯特罗姆在其著作《超级智能》中所做的那样,以一种文字的、单维度的线性图表来显示智能增长幅度。

图表的一端是低智能,例如小动物,另一端是高智能,比如天才,就好像不同智能是不同分贝的声音一样区分高低。

当然,我们很容易就能继续想象,智能继续增长如同越发喧嚣的声音,最终超越我们自己的高智能,成为一种超级“响亮”的智能,平地一声吼!最终将远远超过我们,甚至可能超越图表的范围。

凯文凯利解读AI崇拜:超级人工智能是个神话

这个模型在拓扑上相当于一个梯子,所以每一个智能水平都比之前的水平高了一阶。低等动物位于我们下方的较低的地方,而更高层次的智能将不可避免地把我们踩在更高的阶级上。时间尺度的变化并不重要,重要的是智力增长的衡量标准。

这个模型的问题在于它如同神话,如同进化的阶梯。在达尔文之前对自然世界的观点认为,低等动物居于人类之下。即使是后达尔文时代,一个非常普遍的概念是进化的“阶梯”,鱼进化成爬行动物,然后向哺乳动物进化,接着进化成灵长类动物,最后进化成人类,每一个都比前者更进一步(当然更聪明)。因此,智能的阶梯与生存的阶梯是平行的。

但这两种模式都提供了一种完全不科学的观点。

凯文凯利解读AI崇拜:超级人工智能是个神话

一个更准确的物种自然进化的图表是一个向外辐射的磁盘,就像德克萨斯大学的大卫希里斯第一个设计的模型那样(如上图所示),图表是基于DNA模型设计的。这种纵深的宗谱曼荼罗始于最原始的生命形式,随着时间的推移向外扩张。时间是向外移动的,所以当今地球上最现代的物种形成了这个圆周周长的边界。

这幅图强调了一个难以理解的进化的基本事实:今天活着的每一个物种都是经过同等进化的。除了人类之外,蟑螂、蛤、蕨类、狐狸和细菌也存在于这个外环上。这些物种中的每一个都经历了30亿年的成功繁衍,这意味着今天的细菌、蟑螂都和人类一样高度进化。所以不存在阶梯之说。

关于人工智能最常见的误解是,自然智能是一个单一的维度。

类比进化,同样也没有智能阶梯之说。智能也不是一个单一的维度。它是多种类型和认知模式的综合体,每一个都是一个连续的统一体。

让我们来做一个简单的测量动物智能的任务。如果智能是单维度的,我们应该能够安排鹦鹉、海豚、一匹马、一只松鼠、一只章鱼、一只蓝鲸、一只猫和一只大猩猩,按照正确的升序排列其智能顺序。

但我们目前还没有科学证据证明这一观点。一个原因可能是动物智能没有区别,而我们也没法验证这一点。

动物学在动物的思维方式上充满了惊人的差异。但也许他们都有相同的“通用智能”?这是可能的,但我们没法衡量,也没有衡量这一智能的单一标准。相反,我们对许多不同类型的认知有许多不同的衡量标准。

凯文凯利解读AI崇拜:超级人工智能是个神话

智能是通过大脑浮现的而不是单一的分贝线产生的,更准确的智能模型是绘制出它的可测空间,就像上面由理查德道金斯写的算法所创造的可能形式一样。

智能是一个组合连续体。每个节点一个连续体,多个节点在高维度上创建丰富多样性的复合体。有些智能可能非常复杂,有许多子节点。其他的可能偏简单,但更极端,在空间的某个角落里并不活跃。这些我们称之为“智能”的情结可能被认为像是由多种乐器组成的交响乐。它们不仅在响度上不同,而且在音调、旋律、音色、节奏等方面也有所区别。我们可以把它们看作是生态系统。

从这个意义上说,思维的不同组成部分是相互依赖的,是共同创造的。

因为我们在解决之前无法解决的问题,所以我们想称这种认知与我们的认知不同。

用马文明斯基的话来说,人类的大脑是思维的社会。我们在思考的生态系统中运行。我们包含多种认知类型,它们有多种思维方式:演绎推理、归纳推理、符号推理、情商、空间逻辑、短期记忆和长期记忆。

我们肠道内的整个神经系统也是一种具有自身认知模式的大脑。我们并不是仅仅用我们的大脑思考,而是用我们的整个身体来思考。这些认知组在个体和物种之间存在差异。一只松鼠能记住几千个橡子的确切位置,这是一项能完爆人类头脑的壮举。所以在这一种认知中,松鼠超过了人类。松鼠的这个超能力与其他一些模式捆绑在一起,与我们相比,它们的模式是暗淡的,以便产生松鼠的思维。在动物王国中,还有许多其他特殊的认知能力,它们优于人类,再次被捆绑在不同的系统中。

凯文凯利解读AI崇拜:超级人工智能是个神话

人工智能也是一样。在某些方面,人工智能已经超过了人类。你的计算器是一个数学天才;在某种程度上,谷歌的记忆力已经超出了我们的能力。我们正在设计人工智能以让其在特定模式下表现出色。其中一些模式是我们可以做的,但它们可以做得更好,比如概率或数学。另一些则是我们根本做不到的事情,比如,记住60亿个网页上的每一个单词,这是任何一个搜索引擎都能做到的。

在未来,我们将发明一种全新的认知模式,这种认知模式在我们身上并不存在,也不存在于生物学的任何地方。当我们发明人工飞行的时候,我们受到了飞行的生物模式的启发,主要是扇动翅膀。但我们发明的飞行,即螺旋桨螺栓固定在宽阔的固定翼上,是生物界未知的一种新飞行方式。这算得上是外星人飞行。

同样,我们将发明一种全新的思维模式,而这种思维模式在自然界中并不存在。在许多情况下,它们将是一种新的、狭窄的、针对特定工作的“小”特定模式,或许是一种仅用于统计和概率推理的模式。在其他情况下,新思维将是一种复杂的认知类型,我们可以用它来解决我们的智能无法解决的问题。

商业和科学中一些最困难的问题可能需要两步解决方案。第一步是:发明一种新的思维模式来与我们的大脑一起工作。第二步:联合起来解决问题。因为我们正在解决之前无法解决的问题,我们想把这种认知称为“比我们更聪明”的认知,但实际上它与我们有所不同。

正是在思维上的不同让人工智能造福人类。我认为人工智能的一个有用的模式是把它看作外星智能(或人工外星人)。它的“外星特色”将是它的主要资本。我们很快就会意识到,“聪明”并不是一个单一的维度,我们真正关心的是智能运行的其他许多方式。

同时,我们将把这些不同的认知模式整合到更复杂、更复杂的思维社会中去。其中一些情结将会比我们更复杂,因为它们将能够解决我们不能解决的问题,有些人会把它们称为超人。

尽管谷歌的记忆已经超越了我们,但我们并不认为谷歌是一个超人类的人工智能,因为有很多事情我们可以做得比它更好。这些人工智能的复合体肯定能在许多方面超过我们,但没有一个实体能比我们做得更好,尽管它和人类的身体力量相似。

工业革命已经有200年了,虽然所有的机器都可以超越个人的身体成就(如跑步、举重、精确切割等),但没有一台机器能在普通人类所做的每件事上胜出。

尽管人工智能的思维社会越来越复杂,但目前很难科学地衡量这种复杂性。我们没有很好的操作标准来判断黄瓜是否比波音747更复杂,也不知道它们的复杂性可能存在的不同。这也是为什么我们没有良好的标准衡量智慧的原因之一。

要确定思维A是否比思维B更复杂是很难的,要判断A是否比B更聪明也是如此。我们很快就会意识到,“聪明”并不是单一维度,我们真正关心的是智能运行的许多其他方式所有我们尚未发现的认知节点。

凯文凯利解读AI崇拜:超级人工智能是个神话

二、第二个误解:我们相信我们有一个万能智能

这种重复的信念影响了人工智能研究人员,他们通常宣称的一个目标,就是创造一个万能人工智能(AGI)。然而,如果我们认为智力提供了一个很大的可能性空间,那么是不存在万能智能的。人类的智能并不是处于某种核心位置,其他的特殊智力也非众星拱月。

相反,人类的智能是一种非常非常特殊的智能,它已经进化了数百万年,使我们的物种能够在这个星球上生存。在所有可能的智能空间中,人类的智能将被困在角落里,就像我们的世界被困在浩瀚的银河系的边缘一样。

在所有可能的智能空间中,人类的智能将被困在角落里,就像我们的世界被困在浩瀚的银河系的边缘一样。

我们可以想象,甚至发明一种瑞士军刀式的思维方式。它做了很多事情,但都不是很好。人工智能们将遵循同样的工程格言,即所有生产或出生的东西都必须遵循:不能优化每一个维度,只能做权衡,不能让一个万能的多功能单位跑得比特定专门功能的更好。

一个大的“无所不能”的思维无法做到所有事情,也无法做到专业人员能做的事情。因为我们相信人类的思维是万能的,所以我们倾向于相信,认知并没有遵循工程师的权衡,所以我们有可能建立一种能使所有思维模式最大化的智能,但我没有看到任何证据。

我们只是还没有发明足够丰富的思维来观察整个空间(而且到目前为止,我们倾向于把动物的思维看作是一个单一维度上的具有可变幅度的单一类型。)

三、对最大化通用思维的信念的一部分来源于普遍计算的概念

这一猜想在1950年被证实描述为教会图灵假设,假设认为所有达到一定阈值的计算都是相等的。因此,在所有的计算中都有一个通用的核心,不管计算发生在一个有许多快速部件的机器里,还是慢部件的,甚至是在一个生物大脑中,它遵循同一个逻辑过程。也就是说,人们应该能够在任何能够进行“通用”计算的机器上模拟任何计算过程(思考)。

奇点派依赖这一原则,因为他们期望我们能够设计出硅质大脑来容纳人类的思想,我们可以制造出像人类一样思考的人工思维,而且更聪明。我们应该对这种希望产生怀疑,因为它凭借的是对教会图灵假设的误解。该理论的出发点是:“考虑到无限的磁带记忆和时间,所有的计算都是一样的。”

问题是,在现实中,没有电脑拥有无限的记忆或时间。当你在现实生活中工作时,真正的时间会产生巨大的影响,而且通常是生死攸关的。是的,如果你忽略时间,所有的思考都是一样的。

是的,你可以在任何你想要的矩阵中模仿人的思维方式,只要你忽略时间或现实生活中的存储和记忆的限制。然而,如果你有时间,那么你就必须以一种重要的方式重申你的原则:在不同平台上运行的两种计算系统,在实时情况下是不一样的。可以再次重申:拥有同等思维模式的唯一途径是在同等基质上运行它们。

你计算的物理问题,尤其是当问题变得更加复杂的时候,会极大地影响你的认知能力,而这种认知能力可以在现实中得到很好的处理。我将进一步扩展这一观点,声称获得一个非常类似人类的思维过程的唯一方式就是在非常类似人类的湿纸巾上运行计算。

这也意味着,在干硅上运行的庞大而复杂的人工智能将产生巨大的、复杂的、不像人类的思维。如果可以用像人类一样的成年神经元来制造人造湿脑,我的预测是,他们的想法将会和我们的相似。这种湿润的大脑带来的好处与我们制作基质的相似程度成正比。

但制造湿件的成本是巨大的,湿件组织与人类大脑组织的差距越小,制造人类的成本就越高。毕竟,造人是一件我们在九个月内可以完成的事情。

此外,正如上面所提到的,我们用我们的整个身体来思考,而不仅仅是我们的大脑。我们有大量的数据表明我们的直觉神经系统如何指导我们的“理性”决策过程,并且能够预测和学习。我们对整个人体系统建模得越多,我们就越能复制它。

在一个完全不同的身体(用干的硅而不是湿的碳)运行的智能会有不同的想法。我不认为这是一种缺陷,而是一种特色。正如我在第二点所指出的,与人类不同的思维方式是人工智能的主要资本。这也是称其“比人类更聪明”是误导的另一个原因。

凯文凯利解读AI崇拜:超级人工智能是个神话

四、“超级人工智能”这个概念的核心,是智能具有无限的规模

我找不到这方面的证据。而且,把智能看成一个单一维度有助于这一理念,但理念就只能是理念。

据目前科学所知,宇宙中没有任何物理维度是无限的。温度不是无限的,只有有限的冷和有限的热;空间和时间是有限的;速度是有限的。

也许数学数字是无限的,但所有其他的物理属性都是有限的。理由是,理性本身是有限的,而不是无限的。所以问题是,智能的极限在哪里?

我们倾向于相信,界限超越我们的认知范围,远高于我们,就像我们远“高于”一只蚂蚁一样。撇开一个单一维度的反复出现的问题,我们有什么证据表明局限不在我们本身?为什么我们不能达到最大限度?或者,极限距离我们只有很短的距离?为什么我们相信智能是可以永远持续扩张的东西?

这种超人类智能的核心,尤其是这种智能将不断提高的观点本身,就是认为智力具有无限规模的理念。

一种更好的思考方式是把我们的智能看作是百万种可能的智能之中的一种智能。因此,尽管认知和计算的每一个维度都有一个极限,如果有数百个维度,那么就有无数的思维类型,它们之中没有一个在任何维度上是无限的。当我们建立或遇到这些不可数的思维时,我们可能会自然而然地想到其中一些会超越我们。

在我最近出版的《不可避免》一书中,我概述了一些在某种程度上优于我们的思维。这里有一个不完整的列表:

一种思维,诸如一个人类的思维,天生能更快回答问题(想象最简单的人工智能思维);

一种非常缓慢的主要由巨大的储存和记忆组成的思维;

一个由数百万个头脑迟钝的人共同组成的全球超级大脑;

由许多非常聪明的头脑组成的,但没有意识到它/它们是一个蜂巢的蜂群思维;

一个由许多聪明的并非常清楚地意识到彼此形成了统一的头脑组成的博格超级头脑;

一种并专注于提高你的个人思维的受过训练的专用思维(对其他任何人都毫无用处);

一种能想象出更宏大的思维,但却无法达到彼岸的思维;

一种能够创造出更宏大的的思维,但却没有足够的自我意识去想象的思维;

一种一度成功创造过更宏大思维的思维;

一种能够创造出更宏大思维的思维,其所创造的思维可以创造出尚未存在的更为宏大的思维,依次循环;

一种具有操作访问源代码的思维,这样它就可以经常打乱自己的进程;

一种不带感情的超逻辑思维;

一种解决问题、但没有任何自我意识的思维;

一种有自我意识但不能解决普遍问题的思维;

一种需要很长时间才能形成的且直到成熟都需要保护意识的思维;

一种超低的思维,可以在巨大的物理距离上传播,但在快速的头脑中几乎是“看不见的”;

一种能够快速克隆自己的思维;

一种能够克隆自己,并与克隆体保持一致的思维;

一种能从一个平台移到另一个平台、且能够长生不老的思维;

一种快速、有活力且能够改变认知的过程和特点的思维;

一种尽可能小的(尺寸和能量配置)且有自我意识的纳米思维;

一种专注于情景和预测的思维;

一种永远不会忘记或忘记任何事情(包括错误或虚假的信息)的思维;

一种半机器半动物的共生思维;

一种半机器半人的半机械人思维;

一种量子计算的、逻辑无法被我们理解的思维。

今天的一些人可能会把这些称为“超人的人工智能”,但这些思围的多样性和异己性将引导我们去了解有关智能和智慧的新词汇和见解。

这些思想的多样性和异己性将引导我们去了解有关智能和智慧的新词汇和见解。

其次,超人类人工智能的信徒们认为智能将会呈指数级增长(在某种未知的单一度量标准中),这可能是因为他们还认为它已经呈指数级增长。然而,到目前为止,无论你如何衡量,没有任何证据表明智能是呈指数级增长的。

按指数级增长的意思是,人工智能在一定的时间间隔内可以翻倍。证据在哪里?反正我哪里都找不到。如果现在还没有,为什么我们认为它会很快发生呢?

在指数曲线上扩张的唯一因素是人工智能的投入,即用于生产智慧或智能的资源。但产出表现并不在摩尔定律的上升上。每3年,甚至每10年,人工智能们都不会翻倍。

我问了很多人工智能专家,他们认为智能表现呈指数级增长,但所有人都认为,我们没有智能度量指标,而且,情况并非如此。

当我问雷科茨维尔(他自己就是指数级巫师,他有人工智能指数级增长的证据),他告诉我人工智能并非爆炸式增长,而是逐层增长。他说:“在计算和算法复杂度方面,需要一个指数级的提升,才能把每一个额外的层次都添加到层次结构中......因此,我们可以期望线性地增加一个层级,因为它需要更多的复杂性来增加每一个额外的层,并且我们确实在我们的能力上取得了指数级的进步。但我们并没有像新大脑皮质所能做的那么多,所以我的2029年仍然会让我感受到不被人工智能威胁的舒服。”

雷似乎在说,人工智能的力量并不是呈指数级增长的,只是它的产出呈指数级增长,而产出只是一次提高一个水平。这与智能爆炸式发展的假设几乎完全相反。这种情况在未来的某个时候可能会发生变化,但人工智能现在显然不会以指数级增长。

因此,当我们想象一场“智能爆炸式”发展时,我们不应该把它想象成一种井喷式的爆炸,反而是一种新品种的衍生。应该想象成寒武纪大爆发,而不是核爆炸。加速技术的结果很可能不是超人类,而是异人类。在我们的经验之外,但不一定是“超越”。

凯文凯利解读AI崇拜:超级人工智能是个神话

五、几乎没有证据表明,超级人工智能能迅速解决我们的重大未解的问题

许多支持智能爆炸式增长的人认为,这将会带来一场发展大爆炸。我把这种神秘的信仰称为“思考主义”。这是一种谬论,认为未来的发展水平只会因为缺乏思考能力或智能而受阻。(我也可能会注意到,就像许多喜欢思考的人所认为的,思维是具有神奇力量的灵丹妙药。)

让我们来治疗癌症或延长寿命,这些都是独自思考无法解决的问题。再多的思考也不会发现细胞是如何衰老的,或者端粒是如何脱落的。没有任何智能,即使是超级大骗子,只要阅读当今世界所有已知的科学文献,然后思考,就能知道人体是如何运作的。也没有一个超级人工智能能够简单地思考所有的当前和过去的核裂变实验,然后在一天内想出怎么进行核聚变。

在不知道事物如何运作和知道它们如何工作之间,我们需要的不仅仅是思考。在现实世界中,有大量的实验,每一项都有大量的相互矛盾的数据,需要进一步的实验才能形成正确的有效假设。考虑到潜在的数据不会产生正确的数据。

思考(智能)只是科学的一部分,也许还是一小部分。举例来说,我们没有足够的适当数据来解决死亡问题。在与生物有机体合作的情况下,大多数实验都是按日历进行的。细胞的缓慢新陈代谢不能加速。他们需要数年、数月,或者至少数天,才能得到结果。

如果我们想知道亚原子粒子发生了什么,我们不能只是思考。我们必须建造非常庞大的、非常复杂的、非常棘手的物理结构来找出答案。

即使最聪明的物理学家可以比现在的他们要聪明1000倍,没有对撞机,他们也不会发现什么新东西。

许多支持智能爆炸式增长的人认为,这将会带来一场发展大爆炸。

我把这种神秘的信仰称为“思考主义”,毫无疑问,超级人工智能会加速科学的进程。我们可以对原子或细胞进行计算机模拟,我们可以通过许多因素使它们加速,但有两个问题限制了模拟在获得即时进展方面的效用。

首先,模拟和模型只能比它们的研究对象更快,因为它们去掉了一些东西。这就是模型或模拟的本质。同样值得注意的是:这些模型的测试、审查和验证也必须按照日历进行,以匹配它们的研究对象的速度。毕竟,实践检验真理是不能加速的。

在模拟过程中,这些简化的版本在筛选最有希望的路径时很有用,这样它们就可以加速进程。但现实中并没有多余的用处,在某种程度上,一切真实都会有所不同,这也是对现实的一种定义。随着模型和模拟被越来越多的细节所充实,它们达到了一个极限,这个极限即是现实比其100%完全模拟的速度还要更快。这是对现实的另一种定义:当下所有细节和自由度的最快版本。

如果你能够模拟一个细胞中的所有分子和人体所有的细胞,这个模拟将不会像人体一样快。不管你怎么想,你仍然需要花时间去做实验,无论是在真实的系统中还是在模拟系统中。为了发挥作用,人工智能必须在世界上体现出来,而这个世界往往会设定它们的创新步伐。没有进行实验,没有建立模型,没有失败,没有参与现实,一个智能可以有想法,但肯定没有结果。这样,一分钟、一小时、一天或一年都不会有所谓的“比人类更聪明”的人工智能出现。

当然,人工智能技术的进步会大大加快这一发现的速度,部分原因是阿利什式人工智能会问一些人类不会问的问题,但即使是一个(与我们相比)强大得多的的智能也不意味着即时的进步。

问题的解决需要的不仅仅是智能。不仅是智能本身无法解决的癌症和长寿问题,智能本身也是如此。

奇点派的一个常见的比喻是,一旦让人工智能“比人类聪明”,那么突然它就会思考并发明出一种“比自己更聪明”的人工智能,它会更努力地思考,发明一种更智能的人工智能,直到它爆发,变得像神一样。

我们没有证据表明,仅仅是思考智能就足以创造新水平的智能。这种思考主义智能算是一种理念。我们有很多证据表明,除了大量的智能之外,我们还需要实验、数据、试验和错误、奇怪的质疑,以及各种各样的除了智慧之外还能创造出一种新的成功思维的东西。

我的结论是,或许我对这些说法的看法有误。我们还处在早期阶段。我们可能会发现一个普遍的智能指标,我们可能会发现它在各个方向上都是无限的。因为我们对智能的了解甚少(更不用说意识了),某种人工智能奇点的可能性大于零。我认为所有的证据都表明,这样的情形是极不可能发生的,但概率的确大于零。

因此,虽然我不同意它的可能性,但我同意OpenAI以及那些担心超人工智能的聪明人更远大的目标:我们应该设计友好的人工智能,并弄明白如何逐步灌输与我们相匹配的、可以自我复制的价值观。虽然我认为超人的人工智能是一个在遥远未来存在的威胁(当然也值得考虑),但我认为它的不可能(基于我们目前的证据)不应该是我们的科学、政策以及发展的指南。

就像小行星撞击地球可能是灾难性的。而且它的可能性大于零(因此我们应该支持B612 Foundation),但我们不应该让小行星撞击的可能性扼制我们在气候变化、太空旅行、甚至城市规划方面的努力。

同样的,迄今为止的证据表明,人工智能最有可能不是超人类的,而是成百上千的异人新型思维,最不同于人类,没有一个是万能的,没有一个能马上扮演上帝在瞬间解决重大问题。相反,我们将会有一个有限的智能星系,在不熟悉的维度上工作,超越我们的思维,与我们一起工作,解决现存的问题,创造新的问题。

人工智能最有可能不是超人类的,而是成百上千的异人新型思维,最不同于人类,没有一个是万能的,没有一个能马上扮演上帝在瞬间解决重大问题。

我理解一个超人类的人工智能的美丽有多吸引人。就像一个新型超人一样。但就像超人一样,这是一个神话般的形象。在宇宙的某个地方,一个超人可能存在,但在地球是非常不可能的。然而,神话是有用的,一旦被创造出来,它们就不会消失。关于超人的想法永远不会消失。现在已经诞生了一个超人类的人工智能奇点的想法,也永远不会消失。

但我们应该认识到,这是一个宗教的想法,而不是一个科学的想法。如果我们审视迄今为止关于智能、人工和自然的证据,我们只能得出这样的结论:我们对神话般的超人类人工智能的猜测仅止于神话本身。

在第二次世界大战期间,密克罗尼西亚的许多孤立岛屿首次与外界接触。异界之神飞过他们的天空,在喧闹的鸟中飞翔,在他们的岛屿上丢弃食物和货物,然后再也没有回来。岛上的宗教信徒们向诸神祈祷,希望他们能回来投放更多的货物。即使是现在,50年后的今天,许多人仍在等待物资返回。

超人的人工智能可能会成为另一种货物崇拜。一个世纪过去了,人们可能会回顾这段时间,那时信徒们开始期待一个超人的人工智能出现在任何时刻,给他们带来难以想象的价值。十多年后,他们等待着超人的人工智能出现,确信它必须马上就能到达。

然而,非超人的人工智能已经存在于现实中。我们不断地重新定义它,增加它的难度,在未来将它禁锢起来,但在更广泛的意义上,异人智能,包括各种智慧、智能、认知、推理、学习和意识的连续光谱,在这个星球上已经无处不在,它将继续传播、深化、丰富和衍化。

在此之前,没有一项发明能比得上它改变我们世界的力量,到本世纪末,人工智能将触及并重塑我们生活中的一切。

关于超人的人工智能的神话,往返于既能给我们带来超级富足,又能让我们成为超级奴隶(或者两者皆有)的可能性之间,这种可能性太具神话色彩而难以让人忽视。

(英文来源/Backchannel 作者/Kevin Kelly 编译/机器小易 审校/Anjou)


赞助本站

相关热词: AI

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港