转载自清华大学出版社
《人工智能的战争--宇宙主义者 对 地球主义者对于人类是否应该制造神一样的超级智能机器的激烈辩论》
作者:教授 雨果.德.加里斯 博士
雨果.德.加里斯和我相识已久。近几年,我们经常一起被邀请作为客座演讲者,在国际未来思考者的聚会上。我们共同的想法就是,在本世纪晚期,人类将不得不面临被一种新物种,就是由超级智慧人工大脑控制的超级智能机器人取代的前景。雨果和我不同的是,(使用他的术语)他主要是一个“宇宙主义者”(“Cosmist”,根据他的说法,就是那些认为“神一样的超级智能机器”应该被制造而不管人类未来是否生存的危险的人)。我认为,雨果会把我归类于“地球主义者”(”Terran”,也就是反对允许宇宙主义者去制造这样超级智能机器的人)。
我记得,在一次我们凑巧都同时参加的会议上的一次交谈。他问我是宇宙主义者还是地球主义者。我说我可能更倾向于地球主义。雨果然后半开玩笑的说,“我想这就是它怎样开始的!”他是指他在此书中提到的“人工智能战争”。他认为,在本世纪晚期,一场关于人类是否应该制造那些神一样的,他称之为“人工智能机器”的问题的大战,将在宇宙主义者和地球主义者之间爆发。
事实上,我更愿意认为自己是一个“半机器主义者”而不是“地球主义者”(“Cyborgian”,半机器主义者,是指那些期待用技术来改良自身成为“半机器人”的人,也就是说一半是机器,一半是人类)。我希望,通过改良自身,我们人类可以通过把自己转化成半人工智能机器,而不需要承担一场大战的威胁,实现获得雨果所说的神一样力量的目标,从而分享一块蛋糕。在某种意义上,我在寻求一种妥协--不是让超级智能人工大脑反对人类,而是我们加入它们。
几年前,雨果和我在瑞士一个会议上做客座演讲。为了更加生动,雨果让会议组织者给他一把小孩牛仔手枪,当我们做完演讲后,他半开玩笑,用这把枪向我“射击”。这个事件的照片可以在雨果的网站上(http://www.iss.whu.edu.cn/degaris/news/zurich.html)找到。它的标题是“人工智能战争的第一次枪战”。我希望,在现实世界中不会是这个游戏的结果。雨果对于本世纪晚期那场战争的场景预测,就是由于21世纪武器的使用而造成几十亿人死亡的战争的前景,是非常令人沮丧的,由于人类(和半机器主义者)的生存原因,我很坚定的希望他是错误的,绝对错误的。
读完这本书后,读者可能对我的更加乐观的前景是否会胜出而深感怀疑。雨果的推理是令人恐惧的信服,即使我内心对他所说的很排斥。他在“人工大脑”这个新领域里是先驱者的事实,只会让他的见解更加可信。如果要说在预测高级人工大脑对于人类的影响,有哪位在世界上是处于最优越的位置,那么这个人就应该是雨果。
我相信这本书将有深远的影响。如果在未来几十年后,雨果关于“物种主导问题将在本世纪主导我们全球政治”的言论被证实是正确的话,那么他将是21世纪最主要的思想家之一。对于雨果我没有任何冒犯,我希望他被证实是错误的,夸张的和反应过度的;因为如果不是这样的话,他所预言的将会在我们孙辈成为事实,他所说的“大规模死亡”将对于人类是一件太可怕的事情。
不管你在宇宙主义者-地球主义者的观点范围中处于什么位置,这是一本你不能也不应该忽视的书。它太重要了,太轰动了,而不应该草率的被忽视。我建议你读它,然后再读一遍,试着找出预估逻辑和辩论上的漏洞,以便我们可以期待一个和平繁荣的21世纪。因为,如果雨果的见解是正确的话,那个像电影《终结者》中描述的地狱般的梦魇将会成为事实。
凯文. 沃里克,博士
控制论教授,英格兰 里丁大学,
“我,半机器人”,“机器的思想”,
“机器的前进”的作者
作者:地球主义者 回复日期:2006-08-30 08:41:49
我是雨果.德.加里斯教授,一个设计和制造“人工大脑”研究机构的领导。在这个领域我为世界的先驱。但我不仅是一个研究者和科学家,也是一个有着政治和伦理意识的社会评论家。我十分担心我从事研究的结果,在本世纪下半叶,会给地球上的人类带来我所恐惧的后果。
你可能会问,“既然你对你从事的工作可能会给人类带来的负面影响是如此的焦虑,为什么不停止它而去做点别的呢?” 事实上,我认为我正建造着一个在未来几十年内,将会成为神一样的东西 (虽然可能在我有生之年看不到它的完成)。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管可能那些可怕的,负面效应会接踵而来。
对此,我感觉似乎要精神分裂。一方面,我的确非常想制造这些人工大脑,并尽可能将它们制造的极其聪明。我把这当作人类追求的一个伟大目标。我将会在本书后面的章节里,对这个问题进行深入的讨论。另一方面,我又对人工大脑制造成功将产生的前景感到不寒而栗。同时,这个成功也意味着,人工大脑最终会比我们生物大脑智慧很多倍。这一点,我也同样会在本书后面的章节里,进行深入的讨论。
作者:地球主义者 回复日期:2006-08-30 11:08:57
具体说,作为一个职业的人工大脑制造研究者和曾经的理论物理学家,我认为我比大多数的人对于21世纪科技所产生的“高智机器”的潜在能力,看得更加清楚。所谓“高智”,是指比人类大脑智慧不止2倍或者10倍,而是万亿万亿万亿倍的人工大脑,也就是真正神一样的东西。如此巨大的数字对你来说,可能更像是科幻小说而不是任何可能的未来科学。这本书的第三章将解释一些21世纪科技的一些基本原理,我相信这些科技将允许人类(如果他选择这样做的话)来制造神一样机器。我会让你相信,这不是科幻小说,因为它有着充分的理由促使人类相信这些令人毛骨悚然的巨大数字。我将尽可能的用一种简单清晰的方式来陈述,以便人们不需要成为一个“火箭科学家”(美国人的说法,意思是“一个非常聪明的人”)能来理解它们。这些基本概念可以被任何愿意对这个研究花一点精力的人理解。
第三章将介绍一些难以置信的科技,他们使制造神一样的高度智能机器成为可能。我会让你接触到许多伦理、哲学和政治问题。因为人类制造这些高智能机器的前景会引起非常重要的问题。这本书的大部分都是讨论这些问题。我不会装作我知晓所有的答案,但是我会尽我所能。
在现代历史上,“摩尔定律”一直是一个伟大的科技经济趋势,它描述并解释集成电路或者芯片的运算能力(例如,电子元件密度,电子信号处理速度,等等)每年都成两倍增加。这个趋势自从英特尔微处理器制造公司创始人之一戈登.摩尔1965年提出以后,一直被验证是正确的。如果你把一个数一直乘以2很多次,你会得出一个非常巨大的数字。举个例子,2乘以2乘以2乘以2…(10次)等于1024。如果你这样乘20次你会得到1,048,576, 也就是大概100万。如果你这样乘30次,你会得到10亿,乘40次你会得到万亿,等等。摩尔定律在过去的40年一直是有效的,以致于倍数增加得到的数字非常巨大。这就是我说的“巨大的摩尔倍增”。
作者:地球主义者 回复日期:2006-08-30 11:10:01
摩尔定律是芯片上电路尺寸不断缩小的结果,以至于电子(一种基本粒子,它在电路中的流动形成电流)在电子元件(例如两个晶体管)间传递的距离被缩小了。根据爱因斯坦的理论,物体可以移动的最快速度是光速(大概300,000公里/秒)并且这也是电流必须所遵守的自然常量。如果两个电子元件间的距离被缩小了,它们之间的电子信号将传递更短的距离,因此需要更少的时间来通过这个距离(以恒定的光速)。
芯片制作公司在过去几十年里投入了巨大的精力来使电路变的更小,从而分布得更密集,以便让它们运行的更快。微处理芯片运行越快,在经济上就更吸引人。如果你是芯片制造公司的CEO,假若你在加州“硅谷”的竞争对手比你早6个月向市场推出一款相竞争的并且快30%的芯片,那么你的公司可能会破产。而你的竞争对手的市场份额会大规模增长,因为每个人都想一个更快的计算机。因此,在过去的几十年,电子线路变的更小更快。
摩尔定律还能够有效多长时间呢?如果一直有效到2020年,海量内存芯片上电路尺寸可能允许在一个原子上面存储一个比特(一个“比特”是一个“二进制数字”,一个0或者一个1, 是计算机进行运算所代表的数字和符号)的信息。那么一个人这样等量级的物体,比如说苹果,包含多少原子(因此可以存储多少比特)呢?答案是令人吃惊的―有万亿万亿个原子(比特),就是说,1后面跟24 个零,或者百万个百万个百万个百万。
你现在是不是慢慢开始了解,为什么我如此相信本世纪晚期高度智能机器会比人聪明万亿个万亿倍。
作者:地球主义者 回复日期:2006-08-30 11:11:41
说到这里,希望我所讲的你们都能理解。
论述到现在,你们可能会比我有些超前,并且会反对我,因为我好像在暗示,大规模存储能力和惊人的运算能力就足够产生高智能机器,其它的什么都不需要。我也因为这一点而被我的某些同事指责,所以请先让我陈述一下,对于这个问题的个人观点。
有些人(例如,因黑洞理论闻名的罗杰. 彭罗斯爵士和主要的竞争对手英国宇宙学家斯蒂芬.霍金)主张要产生智能机器需要的远不止是大规模的计算能力。彭罗斯声称意识也是必要的,并且需要新的物理知识来理解自然和机器人工意识的创造。
我并不介意这些反对的声音。又或许这样的批评是对的。但即使这样,他们的反对也无法改变我的基本论题,因为这也许只是延迟几十年,直到意识的本质被更好的理解。我认为,要理解自然是怎么创造我们, 只是一个时间上的问题。也就是说,我预计科学会逐渐理解“胚胎发育的”过程,这是一个用来从一个受精卵细胞来制造包含万亿个细胞的胚胎然后一个婴儿的过程。
我们自己,既有智慧又有意识,就是一个存在的证据,即自然界可以一种合适的方式来排列大分子来制造我们。当一个孕妇进食时,她的食物里面的一些大分子会被重新组合,然后自己去组合包含万亿万亿个原子的大分子结构,就是她的婴儿。婴儿就是由于大分子的自我排列组合而形成的一个有效的三维的并且有意识和智慧的生物。
自然界,通过进化,已经找到了一种解决这一问题的方法,所以这个问题是可以解决的。如果一个人想制造有智慧有意识的机器,一个很显然的策略就是通过尽可能的复制自然界的途径。或迟或早,科学会产生一种和人类一样运作的人工生命形式。
作者:自在的尘 回复日期:2006-08-30 11:21:04
关注下,,做个记号
作者:地球主义者 回复日期:2006-08-30 11:28:03
如果科学对于我们自己的生物大脑是如何工作的有更深入了解的话,常识上来说,制造人工大脑将变的更加容易。不幸的是,当代神经科学对于我们大脑是怎么工作的了解仍然是可怜的有限。尽管过去一个世纪甚至是更长的时间里神经科学家们投入了大量的精力来试图理解人类大脑工作的基本原理。但迄今为止,在神经元微电路层次上,对于神经电路怎样高度联系来实现它的还是了解的很少。科学家们依然缺乏工具来充分的探究这样的结构。
然而,当科技逐渐得以制造越来越小的设备 从微米级达到纳米级。比如说,从百万分之一米(细菌的大小)到十亿分之一米(分子的大小))的时候,制造分子级机器人来探索大脑如何工作将变的可能。
关于生物大脑是如何工作的科学知识到现在还是非常有限的,其原因是我们现在使用的工具非常有限。但是,随着分子级工具(称作纳米科技)的出现,神经学家将会有一套崭新的强有力工具来探索大脑。我们将会在理解大脑工作原理上取得很快的进步。
像我这样的人工大脑制作者将会采用这些新创建的神经科学原理,并迅速的把它融合到人工大脑结构上。
作者:地球主义者 回复日期:2006-08-30 11:33:41
可能,很多大脑工作原理不久将会被人们所了解,从而将会产生一种能够在神经元电路基础上解释,如为什么爱因斯坦的大脑会比绝大多数人要聪明很多的“智能理论”。这样的智能理论一旦存在,对于像我这样的神经工程师来说,可以用一种更工程化的方法来制造大脑。我们将不必要去做“神经科学的奴隶”。我们可让一种替代的路径来制造智能机器(虽然一开始诚然是基于神经科学原理的)。
拥有了纳米科技工具所提供的崭新的神经科学知识,量子计算,以及一个原子存储一个比特所允许的惊人的计算能力,像我这样的大脑制造者将可能拥有开始制造真正有智能有意识机器的元素。
现在将有很多问题被提出,我将在这部书大部分章节里试着解答它们。让我们把目光投向未来,想象一下上述的科技将怎样影响我们普通人的生活。
很快,购买人工大脑控制机器人来做家务活将变的可能。如果这些机器人的价格变的可以承受,那么对于它们的需求将变的非常巨大。我相信,很快,世界经济将依靠这些基于人工脑的计算机。这样的设备将变的非常有用和流行,以至于地球上每一个人都想拥有一个。随着科技和经济的进步,这种设备在全球的市场将会增长到一定的程度以至于地球上大多数的政治家都会支持它。不仅商务公司会热衷于制造更聪明更有用的机器人和基于人工大脑的设备,而且世界上的军事力量也会投入于此的。
作者:地球主义者 回复日期:2006-08-30 11:38:13
然而,有些爱思考的购买者会发现家用机器和机器人每一代都变得越来越聪明,并且机器人和人类智商的差异越来越小。当机器人变的真的非常聪明后,突然几百万的机器人拥有者会开始问他们自己一些有趣的问题。诸如:
“这些人工脑机器人会变得多聪明呢?”
“它们会变得和人类一样聪明吗?”
“如果那是可能的,那是件好事情吗?”
“这些机器人会变得足够聪明而变成人类的威胁吗?”
“这些机器人会比人类聪明吗?”
“如果能够,会聪明多少呢?“
“人类应不应该允许这些机器人比人类聪明呢?”
“当它们变得比人类聪明时,它们会认为人类是地球上的瘟疫或癌症而把人类灭绝吗?”
“人类应为这些可能发生的事情冒险吗?”
“机器人人工智商需要设置一个限制吗,使机器人足够聪明有利于人类而不至于成为人类的威胁?”
“政治上、军事上、经济上有阻碍机器人每年变的更聪明的可能性吗?“
“有很多人认为制造超智能机器是人类的使命。这些人不喜欢对人工智商设置任何限制。这会在人类间产生冲突吗?“
人工智能的出现以及制造更强能力的人工脑,可能你会想到更多的问题。
我又是怎样看待人类对待人工智能的出现所产生的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,我先给你们介绍一个这本书经常用到的新术语,它是表达“神一样超级智能机器”的缩写。这个新术语是“artilect”(人工智能),它是“artificial intellect”的缩写。“artilect”(人工智能)就是本书标题“人工智能战争”的一部分,所以它会是本书里面最重要的概念和术语。
作者:地球主义者 回复日期:2006-08-30 11:47:57
我相信,21世纪这个将成为主导问题----就是人类是否应该制造比人类智能高出万亿万亿倍的人工智能,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且随着人工智能变得越来越现实而不仅仅停留在科幻小说程度上而引起他们之间激烈的斗争。
支持制造人工智能的集团我称之为“宇宙主义者”(Cosmist), 是基于“cosmos”(宇宙)一词,反映了他们对这个问题的看法。对于宇宙主义者,制造人工智能就像宗教;人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,是“宇宙大悲剧”。宇宙主义者会强烈的反对任何试图阻碍21世纪人工智能产生的行为。
第二个强烈反对制造人工智能的集团我称为““地球主义者”(Terran),是基于“terra”(地球)一词,反映了他们内在的非宇宙主义的看法。我非常相信,地球主义者会争论说,允许制造人工智能(以非常高级的形式)意味者接受一个冒险,那就是某一天,人工智能机器会认为,无论从什么样的角度来说,人类都是一种瘟疫或有害物。既然人工智能机器在智慧上是如此的极大优越于人类,那么对人工智能机器来说,如果它们决定把人类灭绝将是很容易的。
作者:II横绝四海II 回复日期:2006-08-30 12:44:55
踩一脚印~
作者:cxingwu 回复日期:2006-08-30 14:47:02
关心这一类的话题
作者:地球主义者 回复日期:2006-08-30 14:50:51
但是你可能会辩论说,如果人工智能机器真的非常聪明,它们会认为人类给了它们生命,那我们就是它们的父母。因此人工智能机器会尊重我们,并且对我们很友好。这可能会发生,但我认为问题是,你不能确定人工智能机器们会像我们期望那样对我们人类那样尊重。
不要忘记,人工智能机器有比我们聪明万亿万亿倍的可能性,因此这样的可能性永远存在,那就是由于它们是如此的聪明以至于人类对于它们来说是如此的低等而不值一提。人类生存与否对于它们来说没有任何不同。
不夸张的说,人工智能机器们试图和人类交流,和人类试图和岩石交流,是非常相似的类比。
另一个类比是, 考虑一下你自己对于你小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作吗,是20世纪科学家根本没有办法制造的吗。蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就象人相对于城市一样。
尽管事实上蚊子是经过几十亿年进化的极度复杂和不可思议的生物,我们人类根本就不会去考虑而杀死它们,因为从我们来看它们只是有害生物。当我们漫步在森林里踩死一个蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有如此的态度。
谁又会说那些人工智能机器们不会对我们有同样的看法而把我们给消灭呢?拥有超级的“人造”智慧,做这些事情对它们来说是小菜一碟。
对于地球主义者,这场辩论的最重要的词汇是“风险”。地球主义者争论说,人类从来就不该冒任何风险,包括高级形式的人工智能机器可能会决定消灭人类这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能。
关键时候,如果地球主义者发现宇宙主义者真的很严肃的要制造高级人工智能机器时,地球主义者会为了保护人类的生存而去消灭宇宙主义者。几十亿人,为了去保护整个人类,而杀死几百万宇宙主义者会被认为是可以接受的。
作者:地球主义者 回复日期:2006-08-30 14:52:46
这样的牺牲会被地球主义者认为是合理的。举一个历史上类似的例子——在二次世界大战的末期,斯大林的军队为了占领柏林和摧毁杀害了2,000万俄国人的希特勒纳粹政权,为了夺取纳粹占领的每一个欧洲城市都需要付出100,000俄国士兵的伤亡。对于斯大林来说,这样的牺牲是合理的,因为可以得到非常大的好处,那就是让俄国人从纳粹大屠杀的恐惧中解救出来。
你可能现在会问:“关键时候,真的有人会头脑清醒选择做一个真正宇宙主义者,而去冒整个人类灭绝的风险吗?”
我认为在未来,几百万人将会对这个基本问题给以肯定答案。我觉得,当更多的人意识到人工智能将会成为什么样子的时候,他们最终会支持人工智能的制造。这本书将会用一个章节以宇宙主义者的视角来论述为什么要支持制造人工智能。
这些人,即“宇宙主义者”,将会给这些生命(一个人工智能机器等价于一万亿万亿个人类)的制造以更高的优先级别,因为它们是神一样、永恒的、无所不在、无所不能的。人类反而不会去理会被人工智能机器们灭绝这样的风险。
让我重新解释一下,以便没有人再对宇宙主义者的理念有疑问。宇宙主义者,定义为,支持制造人工智能的人。人工智能机器们如果被制造,它们将迟早会发现人类是如此的低等,象一个有害物,以至于决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。如果人类被灭绝,那意味着你我的后代也被消灭。那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。人类也将成为地球上曾经存在但现已经灭绝了的99%的物种之一。
作者:白开水水 回复日期:2006-08-30 15:35:53
又在YY了
作者:地球主义者 回复日期:2006-08-31 13:20:00
因此对于地球主义者,宇宙主义者是魔鬼附身,比希特勒、斯大林、日本、或者其它任何杀害亿万人类的政权都坏的多,因为受害的范围将大的多。现在我们谈论的不是几百万人的屠杀,而是整个人类,即几十亿人的灭绝。
但是对于宇宙主义者来说,在这个无关紧要的小行星上谈论人类生存与否,是微不足道的,因为这个行星只是围绕我们这个星系上大概2,000亿个恒星之一运转,已知宇宙中大概有同样数目多的星系(也是以十亿计算的),并且在这个多元宇宙中可能还有很多其它宇宙(根据一些最近的宇宙理论)。我称呼他们“宇宙主义””有一个理由。他们的看法是宇宙范围的。他们更注重“全局”――意思就是说,在一个无关紧要的小行星上灭绝超原始的,非人工智能的物种(也就是人类),相对于人工智能的上帝是不重要的。
这些思想和态度将在书中用两章来陈述地球主义者和宇宙主义者的各自观点。他们双方的论证都很有说服力,意味着地球主义者和宇宙主义者之间不可避免的冲突将会随着未来几十年关于人工智能辩论的白热化而更加敌对。
我对将来冲突潜在的激烈程度非常沮丧和担心的是,人们的观点用地球主义者/宇宙主义者的划分是多么的均匀。举个例子,当我对关于宇宙主义者/地球主义者/人工智能的情景进行讲座的时候,我经常请听众对他们自己是地球主义者或者宇宙主义者进行投票。我发现投票的结果不是我以前所预计的(就是说10%是宇宙主义者,90%是地球主义者),而竟然是50/50,60/40,40/60。这问题真正的把人们分成了对立的两派。
让我更沮丧的是,人工智能问题在21世纪将会白热化到一个程度,基本上可以肯定的说,它会在这个新世纪后半段在地球主义者和宇宙主义者之间引起一场大战。如果你把从19世纪初期(拿破仑战争)到21世纪末期的历次重大战争的死亡数字列举在图表上的话,你会发现,这场战争带来的死亡数字可能是令人沮丧的几十亿,就是我所说的“大规模死亡”。
地球上的人口数量只是几十亿而已,因此我们得到了一个悲剧性的结论,那就是为了避免人类被人工智能机器种族灭绝,人类不得不进行和自己的战争,并且杀完自己(或基本上)。
这场我所谓的“人工智能战争”将会是历史上最波澜壮阔的,因为从来都没有如此高的赌注,那就是整个人类的存亡。战争将用21世纪的武器进行,因此伤亡数字也将是21世纪的数量级。
悲哀的是,对于这个令人沮丧的情形,尽管我尽了很多的个人努力仍然无法找到脱离困境的办法。我夜不能寐,试图找到可以避免“大范围死亡”的现实办法。我没有成功,这让我感到非常的悲哀。事实上,我是如此的悲观,以至于我很高兴我现在还活着。至少我会寿终正寝。但是我很为我的后代担心。他们可能正好处于这样的恐怖时代,而且随时有可能会被毁灭。
作者:地球主义者 回复日期:2006-08-31 13:21:11
对我这样的年纪来说,我可能会在30-40年内死去,但是这个时间可能不够让我看到人工智能战争,这个潘朵拉盒子的开启。我认为可能需要更长的一些时间来让人们掌握那些制造超智能的人工大脑或者人工智能所必要的知识。然而,我这辈子可以看到的也就是我这本书对于人工智能问题的激烈的争论。
越来越多像我一样的研究者和教授们开始意识到这个问题,他们在媒体上和书本里面向大众声称21世纪将会看到超级人工智能的出现。但是至今我是唯一的一个预言超级人工智能会带来大战的人,所谓的“人工智能战争”。
因此这个观点开始引起世界媒体的注意,像美国,英国,法国和荷兰都开始关注这个问题。事实上我认为,没有几年,这些问题就不会局限在学术范围的听众里,而逐渐被普通大众接受,吸引政治,宗教,国防等领域的关注。
“人工智能战争”看起来像科幻小说,对太远的未来预言,好像多数人都不会太担心,但是随着机器年复一年变得越来越聪明,对此的恐惧将越来越深。
那么我对这个问题的态度呢?我为什么要写这本书呢?在内心深处,我是一个宇宙主义者。我认为如果人类不制造人工智能,那么将是宇宙的悲剧。为了解释我为什么是宇宙主义者,先让我来讲一个小故事。
试想一下你是一个拥有神一样能力的ET(外星人),你30亿年前来到了地球。你观察那个时候地球生命的形式,发现它们还是处在非常原始的单细胞阶段。你挥舞一下你的魔力科技小棍,改变了地球上所有细菌的DNA以至于(因为某个论点)让它们永远都不能进化到以后的多细胞生物。因此,永远都不会有植物,动物,没有人类,没有爱因斯坦,没有贝多芬第9交响曲。那不是灾难是什么?当多细胞生物出现在地球,无数的细菌将被它们吃掉。地球上多细胞生物的进化出现对于细菌来说根本没有任何怜惜。
我希望你理解这个类比。如果我们制造人工智能机器导致人类最终被灭绝, 拥有神一样智慧的机器人们会创造出怎样的,类似贝多芬第9交响曲一样的奇迹呢?作为人类,我们太愚蠢了以至于想象不出。我们只是如此的低等以至于没有能力去鉴赏这些。就像让老鼠来研究爱因斯坦广义相对论一样。人类根本就不可能去理解,因为我们根本就不具备理解这些所必要的神经电路。
但是你会问,如果我内心里是一个宇宙主义者,那我为什么写这本书呢?答案是我不是100%的宇宙主义者。如果我是100%宇宙主义,那么我将会安安静静的从事我的人工大脑制造研究,而不会去向公众敲响人工智能问题的警钟。当我临终之时,我会为我被认为是“人工大脑之父”而自豪,但是如果历史谴责我是“大规模死亡之父”的话,那么这个前景真的是让我很害怕。我第二任妻子的母亲仍然对奥斯维辛集中营的纳粹非常后怕。我清楚大屠杀给人类情感上带来的阴影是会伴随人生一辈子的。
作者:地球主义者 回复日期:2006-08-31 13:22:03
我写这本书的目的是给出一个警告,我认为在宇宙主义者的工作发展到一定程度前应该给予人类机会去选择停止他们的工作,如果那是大多数人们所要选择的话。我应该停止我的大脑制造工作吗?答案是否定的。我认为制造近于人类程度的人工智能是非常困难的事情,需要几十年的时间去解决。在未来30到40年内,机器人的人工智能将发展得足够高,而变的对人类非常有用。机器人将负责大多数的工作,他们会从事很多枯燥、肮脏和危险的工作。人类将会从这样的工作中解放出来,转而去从事更有回报的工作,去做更有趣的事情。
现在停止人工大脑的研究是很不明智的。然而,当人工大脑真正开始变得聪明起来,并且非常迅速的变得非常聪明和(一个叫“奇点”的情景)成为威胁时,人类就应该准备决定是否继续。在这个关系到整个人类生存与否的问题上做出正确的决定是非常重要的,对人工智能问题的必要讨论应该越早越好。在人工智能时代来临之前,应该有足够的时间去理解这个问题的复杂程度。
公开的,我是地球主义者。我在试着警告大家。私下的,我是宇宙主义者。因此我觉得性格非常的分裂,就像我在这本书的第一页提到的,我觉得我被这个问题撕扯,左右为难。当人工智能辩论真正开始后,数十亿人将会和我一样有此感受。从地球主义者的视角看,作为一个宇宙主义者就像一个“种族怪物”一样(物种杀手)。一个宇宙主义者会接受人类将被消灭的危险。这是这个形式的固有本质。是否要制造这些人工智能只有两个答案-我们可以制造它们或者不制造它们。做出制造它们的决定就是接受它们会把我们消灭。
另一方面,不去制造它们就是决定不去制造神,一种拭杀神的行为。从宇宙主义者的观点出发,地球主义者是“拭神怪物”。
之前,有些人认为,通过把人类自己也变成人工智能机器,宇宙主义者和地球主义者之间的冲突是可以避免的。我们可以给人类的头脑等加一些成分,使他们成为“半机器人”(半机器生命体,比如,一部分是人,一部分是机器)。我个人觉得这样的看法很幼稚,除非整个人类向人工智能人的转化是一样的快 ,然而这个很显然是不可能发生的。
一颗糖粒潜在的计算能力可能比人类大脑的计算能力要高几十亿倍。对于地球主义者来说,让这样的一个颗粒融入人脑内而让人成为半机器人,是“伪装成人类的人工智能机器”。地球主义者会像对待人工智能机器一样仇恨半机器人,并且想要去把他们两者都消灭掉。有一个人类的外表,让地球主义者觉得半机器人的威胁会减小。
让我试着用一种更形象的方式来解释地球主义者对半机器人的憎恨,可能女性会比男性更有体会。举个例子。一个刚生了孩子的年轻母亲,她决定把自己的孩子变成半机器人,只需要把“一颗糖粒”放在她孩子的脑子里,就能把她的孩子变成人形的人工智能机器。她“孩子”将只有万亿分之一思想是人的思维方式,其余的脑容量(也就是大脑的99.9999999999%)都是人工智能机器的思想(无论是什么)。结果,这个母亲“杀死”了她的孩子,因为它再也不是人类了。它只是“伪装成人类的人工智能机器”,是和她不同的。
因此对于我来说,选择半机器人不是解决宇宙主义者/地球主义者的冲突。任何不测,都可能让冲突加剧,因为这会让地球主义者因为更难区别人类和半机器人而更加偏执和多疑。
过去的十年里我一直比较骑墙和中立,一直用“一方面,另一方面”的方式来表达我的观点和解释两种看法,一边支持地球主义者,另一边又青睐宇宙主义者。经过一段时间,我的朋友开始指责我是“伪善者”。“雨果,你指望人类在地球主义者和宇宙主义者进行选择,但是你自己都没有这样做。“很公平”,我想,那么我就选择吧。在我内心处我是宇宙主义者,我将在讨论宇宙主义者观点的第4章,来陈述我支持宇宙主义者的感受和论据。在那一章我将证明为什么我和其他的宇宙主义者如此热情的支持制造人工智能,我们准备接受人类灭绝的可怕威胁。
在论述地球主义者观点的第5章,我将解释为什么地球主义者会觉得制造人工智能是一场灾难。
在这本书的后部分,我将展现给大家一个画面,那就是我是怎样看待冲突的酝酿和可能产生的后果(第6章)。
现阶段,我可以猜到你们中的某些人可能很难想象,机器怎样可能比人类更有能力并且聪明几万亿万亿倍。这看起来简直就像科幻小说,不会被人类认真对待。
作者:地球主义者 回复日期:2006-08-31 13:23:40
这样的事情发生不是第一次了。
1933年,一个叫利奥. 西拉特的匈牙利裔犹太人物理学家,正在伦敦的一个旅馆里读报纸上关于著名新西兰物理学家,原子核发现者卢瑟福爵士演讲的报告。他被一个参加演讲的新闻记者询问是否相信那一天会到来,那就是原子核里释放的不可思议的高能量会用于工业上。卢瑟福的著名回答是“妄想”,也就是“没门”,“不可能”,“废话”。西拉特对此表示怀疑,认为肯定有一个办法的。
当他在伦敦街上漫步的时候,突然出现一个灵感。这年是1933年,发现中子的第二年。他意识到中子是一种非常好的子弹,它不会被原子核的电荷偏转出去,因为根据定义,中子没有电荷,它是电中性的而得名的。
西拉特知道铀是化学元素表里最不稳定的核子。西拉特的办法是用中子轰击铀原子核使它变的不稳定,因此可能会裂变成两个更小的原子核。因为他知道原子核越小包含的中子越少,因此意味着裂变时有些中子会被发散出去而可以去轰击其它的铀原子核。
因此他是世界上第一个想到核链式反应的人。作为一个物理学家和爱因斯坦的同事朋友,他能够计算出,如果发生这样的链式反应大概可以释放多少能量。他知道两个原子核和发散出去的中子的质量之和将会小于原先的铀原子核和中子的质量之和。那么不见的质量跑到哪里去了呢?
他知道这些质量将会被转化成巨大的能量而散发出去。一个西瓜大小的铀,经过链式反应散发出的能量有多大呢?他意识到,经过计算,发现这个能量将足以毁掉整个城市。
西拉特是一个犹太人,说德语,他读过希特勒慕尼黑暴动失败后在监狱里面写的书,“Mein Kampf”(“我的奋斗”),所以他知道希特勒对犹太人有一个“Endlosung”(“最终解决办法”),那就是,他要把犹太人全部消灭。1933年,希特勒掌握了德国的大权。
因此西拉特不仅是世界上第一个想出核链式反应概念的人,也是第一个害怕希特勒可能首先 “拥有核弹”的人。这个主意让他很恐怖。德国在二十年代是世界上物理学最先进的国家――拥有众多杰出的科学家,如爱因斯坦,普朗克,海森堡,等等。因此他觉得德国非常有可能成为世界上第一个掌握核弹的国家。
他跑到美国和华盛顿,开始向五角大楼喋喋不休的鼓吹自己的观点等等。五角大楼那些人认为他是疯子。仅仅一颗炸弹就可以摧毁一个城市的概念让他们觉得荒谬之极。在二十世纪三十年代,最大的炸弹仅仅可以炸毁一个大型建筑物。
西拉特志在让美国成为世界上第一个发展出核弹的国家的目标没有成功,所以他改变了策略。他的另一个主意是找到他自己当时住在美国的老朋友爱因斯坦。当然爱因斯坦马上就明白了这个理论,因为他发现了这个理论的大部分,尤其是他著名的,西拉特用来计算能量的公式E = mc2 。 爱因斯坦也是德国人和犹太人,所以他很了解希特勒搞到第一个核弹后可能带来的后果。
西拉特让爱因斯坦在他起草的给美国F.D. 罗斯福总统的信上签了名,总统批准了在几年后制造出核弹的“曼哈顿“工程。从西拉特原先的核链式反应概念到后来的广岛大爆炸只有短短12年。
我非常钦佩西拉特。我认为历史低估了他的作用。在我的眼里,他是20世纪没有被歌颂的最伟大的英雄之一,他应该获得更高的历史声誉。
现在来说明我的观点。西拉特开始是孤独的,当他试图说服其他物理学家时,他预言未来核物理学能够制造出一枚足够荡平整个城市的炸弹。他的先见之明是正确的。他知道自己是对的,他懂得这个理论,并且他坚持劝说那时候的掌权者采取行动。
相似的事情现在也开始发生。越来越多的研究者和教授们看到了这样的一个未来,那就是,很可能21世纪,科技制造神一样的超级智能机器。这样人掌握了理论。
他们看到了什么即将发生,并且他们为此非常忧虑。我是其中之一。这本书就是试图对于这个问题敲响警钟。如果人类有技术来制造人工智能,人类将怎么做?
我的要点是,如果你觉得人工智能这个概念太具科幻色彩的话,那么你就想想二十世纪三十年代西拉特所预言的。它们之间有很强的可比性。想象一下一个可以摧毁整个城市的炸弹的这个观念在二十世纪三十年代是多么的疯狂,然而,它成为了现实。如果制造比人类聪明几万亿万亿倍的机器这个观念对你来说是荒谬的话,就去记住西拉特和他的预言。
这个介绍性的章节已经让你有了一个什么是“人工智能战争”的总体看法。后面的一些章节将对此所概括的观点进行详述。
我希望这本书可以让你去思考,让你们意识到这个问题,那就是我相信它将会主导21世纪的世界政治,“物种主导”这个问题会标识和定义这个时代。“人类是否应该制造人工智能?”我相信,在21世纪,这个问题将会比20世纪的“谁将拥有资本?”的问题,更突出的把人类划分成更加对立的两大阵营。对于这个问题的相互对立答案引起了资本主义/共产主义的分裂。决定21世纪全球政治的,我认为将会是这个问题,那就是“谁或者什么将是地球上的支配物种,人工智能机器还是人类?”
我用一个小口号来结束这章,以更简洁的表达人工智能辩论的精髓。
作者:地球主义者 回复日期:2006-08-31 13:25:00
“我们是在制造上帝,还是在制造我们潜在的终结者?”
附:作者在中国欢迎大家用中英文交流!
作者:地球主义者 回复日期:2006-08-31 13:28:19
在本章,我想提出一些你们在读此书时可能碰到的问题。也许你对我的一些论述持怀疑态度,或者是觉得我忽视了某些东西。我在本章将试图预测一些你的反对意见。很有可能,通过讨论一些反对者的意见,我可能会加强前些章节内的论述。这些问题,或者“预计的反对意见”,有来多处来源。有些来源我自己,有些是来源于我的朋友,但是大多数都是来自于那些和我有很多年接触的人,那些在我的网站上读过关于我思想的早期初稿的人,或者是那些看过我的报道或看过关于我思想的电视节目的人的反馈。某些反馈非常重要,所以如果你反对我关于这些批评的回答是有说服力的话,并且如果你有同样的反对意见,你也会被说服的。
问题1. “时间问题――如果人工智能发展的太快以至于人工智能辩论来不及展开将怎么办?”
在所有我收到的问题里面,下面的让我考虑的最多。我认为,它是一个基本的批判意见。这个问题是如此的重要以至于我在第6章里面讨论“奇点”的时候已经涉及了这个问题。本质上来说,这里的争议就是,如果人工智能的崛起太快了,就没有时间产生社会上的宇宙主义-地球主义的分化,因此让本书的这个论点不成立。没有这样的分化,将不会有人工智能辩论,也没有人工智能战争。
亲爱的德加里斯教授,
顺着CNN(美国有线新闻台)的网站的一个连接,我最近接触了你的“关于超级智能机器的道德困境”的文章。我着迷于阅读这篇文章,虽然我在这些领域不是一名专家,我敢说在大多数方面上我赞成你的观点。然而,有一点让我感到有些前后不一致,如果你原谅我这样说的话。这点就是你对于“地球主义者”和“宇宙主义者”的看法。为了这些集团能够崛起,制造电子大脑的能力将需要介于可达到的范围内,也许电子大脑已经存在了。这就是我在您的论文里发现的矛盾之处。被宇宙主义者保护和培育的人工智能机器不会让这个论点多余?我同意你的观点,那就是电子大脑将以指数速度发展进化。因此,很快他们将回答,是否会发展成对于人类充满敌意的物种的问题,以至于“宇宙主义者”和“地球主义者”的主要智囊们没有机会来完成他们的论述和争论。这将发生在他们考虑发动战争之前――假设这些“人类”智囊们是合理程度的文明。我希望我的看法不会以任何方式冒犯您,并且我将很愉快的聆听您对于这个问题的想法。
作者:地球主义者 回复日期:2006-08-31 13:30:07
回答:
我赞同这里的主要观点。我把这点重新表述为――“如果电子大脑(人工智能)以(快速的)指数速度进化发展,也就是说在未来几十年内达到或超越人类的智慧级别,那么将没有足够的时间产生地球主义者-宇宙主义者的冲突,人工智能战争也不会产生。我确实认为人工智能的进步将是指数速度的,但是不至于如此的迅速以至于没有足够的时间产生人工智能的辩论和发起人工智能战争。
我认为其中的原因是由于制造真正人工智能的任务是非常困难的,并且可能需要人类几十年的时间来完成。在目前,我们对于人脑的工作原理,记忆的本质是什么,思维是什么,我们是如何推理等等所知甚少。在人脑内有千万亿个神经键(神经元之间的联系),清楚的表明人脑结构是如何的超级复杂。我怀疑,关于人类在神经科学研究领域进步的最现实的情景就是,从现在开始将至少需要50年的时间来在人工大脑制造上取得真正的进展,并且在之后的进步将相对缓慢(虽然也是指数级别的)。
我认为,早期的人工智能机器将因为足够智慧而引起地球主义者的警觉。像我这样的一些人将会警告大众某些事情即将到来,但是我认为之后的进展将不会是足够的迅速,因为对于大众来说,反应的时间将很有限。当公众从他们的家用产品中开始看到智能的真正迹象的时候,他们将不需要很多年时间来反应。我认为对于公众和政府来说,5到10年的时间将足够让事情有所进展,如果他们真正的察觉到对于他们的物种支配甚至生存存在着一个真正的和强烈的威胁的时候。
同样,那些社会上有意识的大脑制造者们将不会缓于警世大众,当他们认为在研究室内的进展证实这点的时候。例如,我,倾向于让公众清楚的了解世界上人工智能的现状,即使它们目前还是处于原始状态。大脑制造研究者们是处于这样的一个位置,那就是第一个知道正在发生些什么的位置,因为显然,就是我们在制造这些东西。
我认为从道德上来说,我们有一种义务来告诉公众正在发生着的某些事,以便公众有时间来反应,来防止如此的情况发生,即人工智能的指数级别的智慧增长曲线比大脑制造者的预计要更迅速。我同样认为大脑制造者们应该现在就警世公众,而不是等待人工智能机器的真正智慧的第一个征兆出现。这样给予公众更多的时间来反应,但是当然,如果公众看不到真正智慧的证据,那么他们会认为研究者们是哭着喊狼来了,并且学会忽视他们。
大脑制造者们需要告诉公众指数曲线的特征,那就是在水平轴上每一单位步骤对应在垂直轴上高度的两倍增长。这样的曲线可以开始的非常缓慢并且在低水平上保持很长的时间,然后突然快速增长。举个例子,考虑下面的“倍增”曲线图,它列举了对于水平轴上每一单元步在垂直轴上的高度―― 0.1, 0.2, 0.4, 0.8, 1.6, 3.2, 6.4, 12.8, (都是小值,但是…)25.6, 51.2, 102.4, 204.8, 409.6, (开始攀升)819.2, 1638.4, 3276.8, 6553.6, (开始暴增)……104857.6, 209715.2, 419430.4, (爆炸性的数字), .......(无穷大)!!
如果时间表是这样的,那就是介于a)人工智能的最初迹象和 b)爆炸性指数级别的人工智能增长的年数(称作“爬升阶段”)只是几年的时间,那么将不存在人工智能的辩论和人工智能战争(除非是爆发在人类和人工智能机器的物种主导之战)。我认为由于大脑制造本身的复杂性,这段时间,即所谓的“爬升阶段”,将有几十年之长。这对于公众来说将有足够的时间来反应,来辩论,并且来形成宇宙主义和地球主义的分化。
作者:地球主义者 回复日期:2006-08-31 13:33:07
明天继续
作者:太空裸奔007 回复日期:2006-08-31 14:27:31
我靠~~最开始我以为是写科幻的来了
作者:地球主义者 回复日期:2006-09-01 09:41:20
因此让本书的这个论点不成立。没有这样的分化,将不会有人工智能辩论,也没有人工智能战争。
作者:地球主义者 回复日期:2006-09-01 09:42:30
亲爱的德加里斯教授,
顺着CNN(美国有线新闻台)的网站的一个连接,我最近接触了你的“关于超级智能机器的道德困境”的文章。我着迷于阅读这篇文章,虽然我在这些领域不是一名专家,我敢说在大多数方面上我赞成你的观点。然而,有一点让我感到有些前后不一致,如果你原谅我这样说的话。这点就是你对于“地球主义者”和“宇宙主义者”的看法。为了这些集团能够崛起,制造电子大脑的能力将需要介于可达到的范围内,也许电子大脑已经存在了。这就是我在您的论文里发现的矛盾之处。被宇宙主义者保护和培育的人工智能机器不会让这个论点多余?我同意你的观点,那就是电子大脑将以指数速度发展进化。因此,很快他们将回答,是否会发展成对于人类充满敌意的物种的问题,以至于“宇宙主义者”和“地球主义者”的主要智囊们没有机会来完成他们的论述和争论。这将发生在他们考虑发动战争之前――假设这些“人类”智囊们是合理程度的文明。我希望我的看法不会以任何方式冒犯您,并且我将很愉快的聆听您对于这个问题的想法。
作者:地球主义者 回复日期:2006-09-01 09:44:39
回答:
我赞同这里的主要观点。我把这点重新表述为――“如果电子大脑(人工智能)以(快速的)指数速度进化发展,也就是说在未来几十年内达到或超越人类的智慧级别,那么将没有足够的时间产生地球主义者-宇宙主义者的冲突,人工智能战争也不会产生。我确实认为人工智能的进步将是指数速度的,但是不至于如此的迅速以至于没有足够的时间产生人工智能的辩论和发起人工智能战争。
我认为其中的原因是由于制造真正人工智能的任务是非常困难的,并且可能需要人类几十年的时间来完成。在目前,我们对于人脑的工作原理,记忆的本质是什么,思维是什么,我们是如何推理等等所知甚少。在人脑内有千万亿个神经键(神经元之间的联系),清楚的表明人脑结构是如何的超级复杂。我怀疑,关于人类在神经科学研究领域进步的最现实的情景就是,从现在开始将至少需要50年的时间来在人工大脑制造上取得真正的进展,并且在之后的进步将相对缓慢(虽然也是指数级别的)。
我认为,早期的人工智能机器将因为足够智慧而引起地球主义者的警觉。像我这样的一些人将会警告大众某些事情即将到来,但是我认为之后的进展将不会是足够的迅速,因为对于大众来说,反应的时间将很有限。当公众从他们的家用产品中开始看到智能的真正迹象的时候,他们将不需要很多年时间来反应。我认为对于公众和政府来说,5到10年的时间将足够让事情有所进展,如果他们真正的察觉到对于他们的物种支配甚至生存存在着一个真正的和强烈的威胁的时候。
作者:地球主义者 回复日期:2006-09-01 09:46:46
大脑制造者们需要告诉公众指数曲线的特征,那就是在水平轴上每一单位步骤对应在垂直轴上高度的两倍增长。这样的曲线可以开始的非常缓慢并且在低水平上保持很长的时间,然后突然快速增长。举个例子,考虑下面的“倍增”曲线图,它列举了对于水平轴上每一单元步在垂直轴上的高度―― 0.1, 0.2, 0.4, 0.8, 1.6, 3.2, 6.4, 12.8, (都是小值,但是…)25.6, 51.2, 102.4, 204.8, 409.6, (开始攀升)819.2, 1638.4, 3276.8, 6553.6, (开始暴增)……104857.6, 209715.2, 419430.4, (爆炸性的数字), .......(无穷大)!!
如果时间表是这样的,那就是介于a)人工智能的最初迹象和 b)爆炸性指数级别的人工智能增长的年数(称作“爬升阶段”)只是几年的时间,那么将不存在人工智能的辩论和人工智能战争(除非是爆发在人类和人工智能机器的物种主导之战)。我认为由于大脑制造本身的复杂性,这段时间,即所谓的“爬升阶段”,将有几十年之长。这对于公众来说将有足够的时间来反应,来辩论,并且来形成宇宙主义和地球主义的分化。
作者:地球主义者 回复日期:2006-09-01 09:58:18
问题2.“那么第三群体――半机器人是怎么回事呢?
相当多的人写电子邮件给我,说我在人工智能辩论中对于第三类人类,除宇宙主义者和地球主义者之外的所谓的“半机器人”(生控体系统)的重要性低估了。 半机器人是一种半人半机器,也就是说通过附加人工智能计算机成分到其大脑的生物。下面是对于此类人类的经典评论。它是出现在把人脑的内容下载到人工智能机器的思想之后,并且从此来观察人工智能的发展。
亲爱的德加里斯教授,
我以很浓厚的兴趣阅读了您关于人工智能的大作(关于超级智能机器的道德困境)。诚然,作为一个不够资格的评论者,我认为第三类群体(或者说是小群体),那就是半机器人,被低估了。对我来说很显然,随着越来越多可行技术的发明,人类将准备在思维上和身体上扩展自身 。我预言,将出现一个缓慢的淘汰人类自然形式的过程,从而形成一群不可思议的各种各样的基因工程和重组的半机器人。
作者:地球主义者 回复日期:2006-09-01 10:02:36
回答:
当我最初思考21世纪人工智能崛起的政治含义的时候,我确实考虑了把社会划分为三类主要团体,而不是两类,也就是说,宇宙主义者,地球主义者(两者都是人类团体)和半机器人(半人,半机器人)。我对此思考了一段时间,由于就像前面一些章节所见的对于妥协的一些衡量,决定否定它,我想让问题简单化,也就是说只有两大主要团体。我可以很容易的把半机器人作为子团体而归纳到宇宙主义者团体。
另一个主要原因就是,我预言随着半机器人通过对自身添加更多的人工智能机器成分,它们会变得越来越不像人类而更像纯种的人工智能机器时,也就是说没有任何人类成分,地球主义者们将以人工智能机器的身份对待它们,并且象对待宇宙主义者一样仇视它们。我在第5章关于地球主义者“对于半机器人不信任”的论述中已经提到这些。
第三个理由更主要是关于数字的问题。一个小行星大小的人工智能机器将会拥有1040个成分(原子)。这将使人类可怜的1010个神经元相形见绌,以至于那些决定让自己一次一个成分而逐渐转化成这样大小的人工智能机器的人类和那些重新制造的“纯种”人工智能机器丝毫没有区别。因此,去区分人工智能机器和高级半机器人,至少从地球主义者的角度来看是没有太大的意义。
然而,我确实同意这样的评论,那就是在转化阶段,就是当人工智能机器不是非常强大,并且比人类不是要聪明很多很多的时候,那么从人类本身和从人工智能机器成分上对于半机器人的总体性能的相对贡献是可以比较的。在这样的情形下,区分半机器人和人工智能机器将是有用的。然而,当人工智能机器在大小和智能(因为更多的智慧通常需要更多的物质)上变得超出一切的时候,这样的区分将变得毫不重要。
作者:地球主义者 回复日期:2006-09-01 10:09:00
谁是德.加里斯?谁提出了这个不同寻常的声明――即在本世纪末机器将会比人类聪明万亿万亿倍――就是关于物种支配这个问题会有一场重大的战争,并且导致几十亿人的死亡?他是个疯子吗?他是科幻小说作家吗?他值得我们去聆听吗?或者人类能够承担忽视他的后果吗?
为了使作者及其观点更为可信,本章将分为三部分。第一部分简单的介绍作者的生平,第二部分将详细一点的介绍他现在的工作,然后在第三章里陈述他的未来工作目标和理想。
作者:地球主义者 回复日期:2006-09-01 10:13:20
从最早开始说,我于1947年出生在澳大利亚悉尼,现在写这本书时, 我已经是个中年人了。我离过婚,我和我的第一个妻子有两个孩子。由于我第二个妻子的离世使我至今寡居。性格上我是热情和理性的。在我家中,我有6,000多本藏书。我是一个科学家、研究性教授、社会活动分子、作家和社会评论家。
我的少年时期是成长在澳大利亚,我觉得我热情智慧的价值观和澳大利亚的冷漠,非理性,粗犷的社会格格不入。在悉尼奥运会期间,一位BBC的记者曾经说过,澳大利亚人渴望赢得一枚金牌而非诺贝尔奖。当我23岁完成应用数学和理论物理的本科学位后,我决定永远的离开这个国家。
当我踏上伦敦的第一天,我就被一种感觉所笼罩,那就是我已经身处在一个毫无疑问更加包容更加博大精深的文化中。那天晚上我在电视上看到BBC的一个辩论节目,我被它的理性所吸引。我如释重负,找到了自己的家。这里有着一种可以欣赏和了解我的价值的文化。
在伦敦居住了一年,由于二十世纪七十年代,伦敦空气的污染,我患了粘膜炎,决定搬到充满学术氛围的美丽的剑桥。我成了一个自由职业的数学辅导, 辅导对象是6,7个剑桥大学本科学生。学生们三三两两来到我的公寓里, 让我帮助他们解决教师布置的数学难题。
作者:地球主义者 回复日期:2006-09-01 10:14:40
在剑桥呆了一些年后,我看了我给我第一位妻子买的世界地图册。我的第一任妻子是澳大利亚人,我们邂逅在从澳大利亚到英格兰的5周的邮轮上。我想我应该到国际化的都市,例如布鲁塞尔去居住。可以从其深邃的文化中汲取营养。我所需要做的就是学几种语言然后搬到那里。
尽管在将来可能过上国际大城市生活的前景很诱人,但是我还是很喜欢我在剑桥的四年生活。喜欢它的绿色,它的美丽,它的学术传统,特别是它的智慧。那是我一生中最快乐的一段日子。但最终我还是不得不离开,因为那里没有长期的工作机会。
我搬到了布鲁塞尔。我开始能说流利的法语,德语和荷兰语,正如计划的一样,我开始汲取这些文化,并将其融入我的个性.我变成一个更加丰富的人,一个“多元化”(多种语言,多种文化的人)的人而不是“单元化”。作为一个“多元化”的人,我发现和其他“多元化”的人一起,比和“单元化”的人在一起更让人有灵感。
我很喜欢在布鲁塞尔的新生活。很不幸,我的澳大利亚妻子不是这样。她很想回到她的故乡澳大利亚,因为那里有她熟悉的澳大利亚本国文化和语言根源。她极度想念那里。兴趣上的不同最终让我们分手了。她带着孩子回了澳大利亚。
离婚以后,我和一个说法语的比利时人生活在一起,后来结婚了。无须惊讶,我的法语水平进步很快。
我在一家荷兰的很大的电子/计算机公司得到了一个工作,但很快我就感到非常的厌烦和沮丧。我很怀念剑桥的理**和学术氛围。在计算机界工作了一些年后,我在布鲁塞尔大学开始攻读人工智能和人工生命的博士学位,成为一个研究员。
作者:地球主义者 回复日期:2006-09-01 10:17:25
早在1992年,我的第二个妻子和我就离开了欧洲来到日本生活。我得到了一个在筑波“科学城”从事人工智能的博士后奖学金。我那时相信,2000年之前,日本会超过美国,成为世界上经济最发达的国家。这个没有成为事实。我在日本住了8年,致力于制造世界上第一个人工大脑。
我认为日本太封建,法西斯主义,压抑人的个性,缺乏理性,社会封闭,以至于我不能够长久忍受它。但我尽可能的呆在那儿,因为至少日本一直投入于制造一种崭新的计算机,这个我会在其它章节介绍。
我在布鲁塞尔的一个研究实验室获得了一个从事同样工作的位置。我一个人回去了,因为我的第二个妻子已经死于肺癌。她在认识我之前烟瘾一直很重,虽然在我的坚持下戒了烟,但是我认为危害早已形成。
布鲁塞尔的私立实验室购买了我的一个大脑制造机器(世界上仅有的四个机器中的一个,售价50万美金一个)。这个实验室创建于信息泡沫时代(dotcom boom),因此我决定把我在日本攒的10万美金投资与此,希望成为一个百万富翁。
作者:ntpg 回复日期:2006-09-02 00:16:31
这么深刻的一篇文章怎么就没人回呢?
作者:地球主义者 回复日期:2006-09-04 09:06:04
我的人工大脑制造工作和我的机器吸引了世界媒体的关注――一个星期内有两个国际媒体联系我。法国的主流报纸“Le Monde”写了大约10余篇关于人工智能的文章,由于媒体的大量关注以至于引起了一次国会听政会。法国是世界上第一个在政治上讨论宇宙主义的国家(巴黎,2001年7月)。
看起来我的生活非常的顺畅,直到灾难的到来。信息泡沫变成了信息灾难。投资者不再向高科技有风险的研究室投资。实验室破产后,我损失了10万美金,也丢掉了工作。
我的又一份工作是在美国当计算机科学教授。讽刺的是,我到美国工作的第一天正好是2001年9月11号。我的系主任那天早上在大学旅馆里碰见我,说:“嗨!雨果。你看到了这个吗?”他指向电视机。“奇怪的行为”,我想,但是随着他指的方向看去。我看到了一个着火的大楼,并且认出它是纽约世贸中心,我呆如木鸡。过一会,当我在大学餐厅用早餐时,我们听到一个学生尖叫,“他们撞了另一个大楼!” “美国一直是这样吗?”我想。
作为一名教授,现在我必须去适应美国的个人主义和放任主义的态度,去适应教书的需要。我忙的发疯,去争取研究资金和适应我的第6个国家。这些都需要很多精力,所以我就没有在媒体宣传我的宇宙主义观念。
作者:地球主义者 回复日期:2006-09-04 09:07:32
在这一节里我将对我这些年里所从事的工作进行更详细的阐述,重点介绍近十年我所做的,因为这些和本书的主体最有联系。
早在八十年代晚期,我就开始利用一种模拟达尔文进化的软件形式,所谓的基因算法(Genetic Algorithm), 来设计神经网络。我开始发表一系列的科学研究论文。到我获得博士学位时,我已经发表了20篇论文。
神经网络可以被想象成由象枝节一样的纤维叫做轴突(axon)和树突(dendrite)连接起来的三维大脑细胞矩阵。来自神经元的信号由轴突发送出去。树突将信号传送入神经元。当一个轴突和一个树突相连,形成的联系叫做神经键(synapse)。
在一个真正的生物大脑中,每一个神经元或者大脑细胞拥有上万个神经键。也就是说,它可以被上万个来自其它神经元的信号所影响。这些神经信号同时到达一个神经元,被加强或者加权,然后相加。如果总的信号大于神经元激活阀值,神经元就会被激活,也就是说,它会顺着自己的轴突发送电子脉冲信号,信号的频率决定于总的信号强度大于阀值多少。轴突的脉冲发送到神经健,进一步影响其它的神经元。
这种生物神经网络可以用程序模拟。典型的在80~90年代,一个神经网络里的神经元数目大概是从十余个到一百个不等。对于我的博士工作,每个神经网络通常最多拥有16个神经元。这和我现在的工作实用近1亿个神经元形成了强烈的对比。
下面的几页对我的工作进行了更详细的描述,并且技术性更强。我希望你能够坚持下去.但是如果你对此理解有困难的话,你理解不了这些,跳过这节不会太影响这本书的总体流程。同时在这里提醒您一下,这本书拥有一个术语表,可能会对一些不熟悉的术语的理解有所帮助。
作者:地球主义者 回复日期:2006-09-04 09:09:15
基因算法(Genetic Algorithm)是一种达尔文进化的程序模拟形式,用来优化任何被进化的性能。举个例子,我是把基因算法用于神经网络的进化。我用以下的方式来模拟神经网络的行为。第一个问题是如果描述神经网络本身。我使用16个神经元并且让它们和自身以及其它神经元连接,因此总共有16*16=256个连接。输入信号的强度,以普通的十进制数字来表示,例如10.47,被乘以一个权值,例如0.537,然后相加。作为这个概念的一个例子,想象一个非常简单的只有两个神经元的网络,因此有4个连接。神经元1输出的信号通过连接或神经键C11发送到自身,并且通过连接或神经键C12发送到神经元2。 神经元2输出的信号通过连接或神经键C22发送到自身,并且通过连接或神经键C21发送到神经元1。 假设在某个时刻的强度是S1和S2(例如,10.54和7.48)。
每一个连接Cij或者神经键拥有一个相应的权值Wij, 用来和通过神经键输入的信号强度相乘。因此,输送到神经元2的信号总强度应该是(W12* S1 + W22* S2 )。对于神经元1计算也类似。总共有4个这样的权值。假设每一个权值的范围在-1到+1之间。因此每一个权值可以用二进制小数来表示,比如说8个比特(二进制数字,0或者1)。四个这样的数字可以用4*8=32个比特来表示,可以排列成有32个比特的一行。对于16个神经元,我们将用一个有16*15*8=2048个比特的行或者比特串来表示我将用来进化的神经网络的16*16个权值。
如果我知道2048个比特的值(0或者1)我将可以计算所有的256个权值,并且可以通过它们建立一个完全连接的神经网络。相反的过程也是可行的。如果知道所有的权值,并且知道输入信号的初始值,我们就可以计算出每一个神经元发射时候的信号强度。如果知道了每一个神经元是怎么发射的,就会知道整个神经网络是怎么发射的或怎么运转的。我们可以提取某些神经元的信号,并且把这些信号当作控制信号,来控制一些活动,比如说,机器人的腿的角度来让它起落。
作者:地球主义者 回复日期:2006-09-04 09:09:54
为了解释基因算法是怎么运用于此的,想象一下产生了100个随机的比特串,每个长2048比特。从每一个比特串我们可以构造一个相应的神经网络。对于每一个网络都采用同样的初始信号来让网络的信号传输启动。提取其中的某些输出信号并且使用它们,比如,通过控制构成棍形腿的4个线条的角度来让棍形腿走路。我们可以测出在一定时间内腿的走动距离
那些走更长距离的神经网络的比特串,可以生存到下一代。那些走的距离短一些的相应的比特串会死亡,所谓的达尔文的方式,即“适者生存”。比特串越适应,那些具有更高性能分数或者适应值越会复制自己,产生所谓的“孩子”或后代。然后这些孩子和它们的父辈一起被“变异”,也就是说,每一个比特有一个很小的概率来改变相应的值(0变成1,1变成0)。两个比特串可以“交配”,即一个称为“特征交换”的过程。它有很多方式。一个简单的方式就是,选取两个父比特串或者通常所谓的“染色体”,在同样的位置把它们分成两部分,然后交换相应的部分。这等价于性,基本上来说就是混合来自父辈的基因来产生后代。
越适应的父辈拥有越多的后代。每一代基因算法拥有一定的总体数量,例如100。大多数的变异和特征交换会让染色体的拥有更低的适应值,所以它们被从总体中清除。偶尔的一次变异或一次特征交换会增加染色体的适应值一点点,以至于在某个时候它会把自己的父亲或者其它低适应值的染色体挤出总体。通过对这样的过程循环几百次,就有可能进化出有更好性能的神经网络,或者任何需要被进化的任务。
当我在布鲁塞尔攻读博士学位时候,我在研究如何进化出可以输出随时间而变化的信号的神经网络。据我所知,在此之前没有任何人做这样的事情。在此之前,曾经有些人应用基因算法到神经网络进化,但是这些应用都是静态的,也就是说,输出的信号不随时间而改变。这让我觉得这些限制是不必要的。基因算法应该能够解决随时间改变信号的问题。当我领悟了这一点后,我就开始进化可以让棍形腿走路的神经网络。我成功了。这需要一些小技巧来让它进化,但是成功了。
这个最初的发现,那就是进化动态(和静态相对应)的神经网络是可能的,给我打开了一个崭新的世界,并且产生了一个新的称作“神经系统进化”的研究领域。我开始考虑我下一步要做些什么。这个想法涌向我的大脑,那就是如果我用一个神经网络进化出一种行为,那么我就可以用第二个神经网络,也就是说,用一套不同的权值,进化出一个不同的行为。权值集合决定输出信号的动态性。
我变的更雄心勃勃。不仅仅是试验局限于2维平面的简单的棍形腿,我开始进化我称作“Lizzy”的3维的模拟生物的行为。如果我可以成功的进化出一种行为,我就可以进化出一个库的行为,每一个神经网络对应于一个行为。现在我就可以更换行为,让Lizzy先是走,然后改变方向。为了使行为转换更平缓,唯一必要的就是先关掉“向前走”行为生成网络(或者是我所称作的模块)的输入,然后把行走模块的输出输入到方向转变模块。模拟试验显示动作转化很平缓。非常好。现在我知道我可以让类似四脚生物的Lizzy展示一个行为库里的所有行为。
作者:地球主义者 回复日期:2006-09-04 09:11:56
现在产生的问题就是什么时候改变行为。也许这样的决定来源于环境的刺激。我开始试验是否可以进化出探测器模块,例如,信号强度探测器,频率检测器,信号强度差异探测器,等等。是的,这是可能的。另一个逻辑步骤就是试着进化决策类型模块,例如这样的类型――“如果输入1的信号强度大于S1,并且输入2的信号强度小于S2,那么采取An 行为”,也就是说,刺激信号可以传送到执行An行为的模块。
综合所有的三种模块,也就是行为产生或行为模块,探测模块和决策模块,看起来好像可以开始制造人工神经系统的工作了。如果有很多这样的模块,那么我认为可以很合适的称这样的集合为一个“人工大脑”。就是在这样的阶段上,我开始雄心勃勃,开始把自己看作成将来人工大脑的先驱者或大脑制造业的未来领袖。
但是仍然有困难。我在80年代晚期和90年代初期所使用的计算机对于我所构想的任务来说是不可救药的慢。当我开始试用十几个进化的模块时,Lizzy在计算机屏幕上的模拟速度显著的变慢。每当我加上另一个模块的权值后,模拟速度变的更慢一些。很显然,这不是一条正确的路。怎样才能解决这个问题呢?
这个时候,1992年,我已经完成了博士学位,开始了在日本的博士后工作。那年的夏天,我和我所合作的,在维吉尼亚的乔治. 梅森大学的一个电子工程师朋友进行了一次交谈。我问我这位熟人怎样才能使我的神经网络模块的进化速度通过电子技术得到提高。讨论了半个小时后,他提到了一个称作FPGA(Field Programmable Gate Array可编程门电路序列)的技术。因为我不是电子工程师,所以我从来没有听过这样的东西。“什么是FPGA?”我问道。他告诉我这是一种可编程的特殊芯片,也就是说,我们可以用一个比特串来指令芯片里的电路怎样去自我连接(或者用术语来说,自我“设置”)。
我顿时兴奋无比。一个构想闪过我的脑海。既然在过去的几年里我一直利用基因算法来进化神经网络,我现在的倾向是去把设置比特串想象成基因算法里的染色体,因此在芯片里硬件进化的想法看起来是可行的了。我开始不断的“拷问”我的朋友。这些设置比特串可以无数次的发送吗?他想了一会,回答说,如果芯片是基于RAM(就是计算机内存)的话,那么就像任何计算机里的普通内存一样,可编程芯片可以被无限制的被重新编程。
作者:地球主义者 回复日期:2006-09-04 09:13:07
我非常高兴。因为这意味着可以通过发送随机的比特串,来随机的设置或者连接可编程芯片,并产生复杂的随机电路。如果有另外一个被编程的用来测试随机程序芯片的性能电路,那么就可能在硬件上以硬件速度执行基因算法。
我为此构想激动不已,以至于我一回到日本的研究组就马上为我的想法作了一次讨论会,并且开创了所谓的“可进化硬件”的研究领域。我为此想法发表论文,向同事宣扬,在会议上作演讲,等等。可进化硬件(Evolutionary Hardware 或者 EH)的研究领域,现在是个确立的研究领域了,每年都会在美国,欧洲和日本有自己的会议和自己的学术期刊。我觉得自己是这个领域之父,并且在自己的日常工作中试用它的基本思想。
紧接着那一年,即1993年,我转到了日本京都的研究实验室从事人工大脑的制造工作。我相信,自从我发现可进化硬件的可能性,我找到了一个使人工大脑制造变为可能的工具。
我开始写论文,声称我打算在2001年前制造一个拥有上10亿神经元的人工大脑。在1993年,宣布这样的计划常常会招来不信任的眼光.因为在那时,大部分的神经网络研究者仅仅使用几十个或者上百个神经元,就像我早几年一样。突然听到某个人说要使用上十亿个神经元听起来非常可笑的。我被嘲笑、 奚落。
但是我相信我的想法是可行的。如果某个人制造一种基于可进化硬件原理的特殊的计算机,那么其电子性的进化速度将会使大脑制造称为可能。我用数学进行了推理,证明在2001年前制造十亿个神经元人工大脑是可行的。我和日本实验室有一个7~8年的合同,因此我想我有足够的时间来实现我的梦想。
作者:地球主义者 回复日期:2006-09-04 09:14:20
我的第一个任务就是选择一种可以设计和进化神经网络的媒介。我选择使用胞腔自动机(Cellular Automata 或者简称为CA)。在2维胞腔自动机上的每一个细胞都类似于棋盘上的一个方格,但是有两个不同。一个是这个棋盘有无限个方格。另一个是方格的颜色不仅限于是黑色或白色,而可以是任何有限集合里的颜色。每个方格在每个单位时间里可以改变其颜色为集合中其它的任何一个颜色。一个特定方格所要改变的颜色决定于它现在的颜色和其邻接方格的颜色。举个例子,如果北边方格是红色,东边方格是黄色,南边方格是蓝色,西边方格是绿色并且中间的方格是棕色,那么在下一个时刻,中心方格将变为紫色。
通过适当的选取几千个这样的规则,我就可能让这些胞腔自动机就像神经网络一样可以生长和进化。举个例子,我可以生成一个三个细胞宽的路径,通过它我可以发送生长细胞,让它们在路径的中间向前移。当生长信号到达生长路径的尽头时,它可以让路径向前延伸,左转,右转,分裂,等等,这些决定于生长信号的颜色。通过改变顺着胞腔自动机路径中间的生长信号的顺序,我能够进化基于胞腔自动机的神经网络。
这个过程有两个步骤。第一个是生长阶段。经过几百个单位时间后,生长达到饱和。再没有三个细胞宽的胞腔自动机路径会生长了。这些路径就是神经网络的轴突和树突。当生长阶段一完成,也就是说生长控制细胞从网络里被清除后,生长的神经网络可以被随后的信令阶段所使用。输入信号会被施加,并且会扩散到整个网络。这些信号就像我早些年进化出的神经网络中的信号一样。它们可以在输出点被提取出来,并且可用来控制那些适应值(fitness)或性能可以被测量的过程。这个适应值就是整个网络的适应值,而网络是依次产生于一系列生长指令的,也就是一个含有6个(所有的数字)整数的随机串。
我所做的就是让神经网络和胞腔自动机结合起来。这些就我所知之前没有人做过的。之所以这么做是因为我认为胞腔自动机是一个可以拥有几十亿个胞腔自动机细胞的合适的媒质,归于十亿个神经元是足够了。这对我来说是可实现的。当时的工作站(比个人电脑强大一些的计算机)的内存大概有十亿字节。内存是很便宜的,因此既然我可以在一个字节(8个比特)上存储胞腔自动机细胞的状态或颜色,并且我的工作站可以拥有十亿字节的内存,那么这将让我可以存储十亿个胞腔自动机细胞的颜色,十亿个!这是很多的,足够在其中放入一个拥有大量数目神经元的人工大脑。空间将不会是问题。那时候的技术允许这样做。这是可实现的。
作者:地球主义者 回复日期:2006-09-04 09:14:59
我花费了一年的时间去写所有的这些规则(北-东-南-西-中 类型的规则)来证明二维版本的基于胞腔自动机的神经网络是有用的,是可以进化。我不得不手工编写(拥有软件工具来帮助我)大概11,000个这样的规则来让它工作,但是它工作了。我成功的进化了振荡器电路,信号强度探测电路,直线运动探测电路等等。是时候去转到拥有完全不同拓扑结构的三维版本了。在二维结构里,电路会相互碰到。它们不能跨过另一个电路。然而在三维结构里,胞腔自动机路径可以通过第三维相互交叉。三维电路的动态性和进化性比二维电路要丰富很多。仅仅在两年后我就让三维版本工作了,拥有大概60,000个规则。
但是这个时候我在日本过的非常郁闷。我们组的顶头上司有一个政策,就是每一个人负责一个项目,这让我觉得非常孤独和智力空虚。我没有一个可以真正交谈的人。通过了一些努力,我终于在1996年得到了一个硕士生来帮助我。
我向他解释,三维版本已经基本上完工了,并且我对一直使用的胞腔自动机模型已经越来越清楚。我向他介绍了我想直接在电路上以电子速度产生和进化基于胞腔自动机的神经网络的梦想。我觉得我们一起应该简化胞腔自动机模型,让它可以适应于当时,即1996年的电子技术。他聆听了我的一系列愿望,然后消失了两个星期。当他回来的时候,他带来了一个崭新的,更加简洁的神经网络模型,它保持了我的旧模型里的大部分特征,但是加了一些特征,让它变的足够的简洁以至于新模型可以直接实现于电子装置。这个新模型被称为“CoDi”。
大概在这段时间,也就是1996年下半年,一个美国电子工程师和我联系。他认为我的论文很有意思并且想和我合作。我发送给他一份我的德国助手的新模型的一些细节,问他能否用当时市场上的特殊的FPGA板在硬件上实现它。他说他能够。我的日本老板同意了给这个想法进行资助,一个在美国的新同事和我之间的亲密合作开始了。很不幸的是,一年后失去了我的德国同事。他回到欧洲攻读博士学位。我的日本老板又回到了他的一人负责一个项目的老路上,我比以前变的更郁闷了。
我开始想着离开,但是还不能,因为新机器刚刚被批准制造。我和我的小组经理关系也越来越紧张,特别是我发现他有这样的一个政策,那就是把自己的名字加到他下属写的而他一点贡献都没有的学术期刊论文上。他让我把他的名字加到我的一篇学术期刊论文上。我拒绝了,告诉他这在西方被认为是很令人厌恶的,是滥用权利和腐败。之后,我们的关系急剧恶化。我被允许留到1999年底,然后我将不得不离开。日本的经济在90年代表现是如此的差,被称为“迷失的十年”,以至于整个研究机构被认为是前景黯淡的没有希望而不需要在经济萎靡时期进行资助。所以我和部门里大多数人在千禧年离开了日本。我得到了另一份工作。讽刺的是又是在布鲁塞尔,并且是做和在日本实验室一样的工作。
在1996到2000年之间,我在美国负责硬件的同事为了建造能够实现我制造人工大脑理想的特殊硬件,一直在孜孜不倦地工作着。对他来说进展缓慢。他从我的日本老板那只得到了有限的预算。他只请得起一个全职的助手和少数几个有限条款合同的兼职助手。
作者:地球主义者 回复日期:2006-09-04 09:16:14
在他工作的过程中,制造机器所基于的FPGA芯片的美国公司决定把这些板子从市场上撤下。然后我的美国同事就不得不和公司争取剩下的一些芯片。这耽误了好几个月。这些芯片最终还是得到了,但是没有被测试。因此他不得不自己测试,因为没有公司的细致测试,招致了更多的延迟。
直到2000年中期,我所谓的CAM-大脑机器(CBMs)才被充分的测试,真正的进化试验可以开始。CAM代表Cellular Automata Machines(胞腔自动机),因为原先的工作是让人工大脑以胞腔自动机来实现。
第一个CBM在1999年被送到我的日本实验室,但是它还仍然有缺陷。因为只有未测试的芯片和很少的人力资源,工作进展的很缓慢。但这些都并不令人沮丧。其他的一些人开始对CBM感兴趣。到了2001年,世界上有四台这样的机器。第一台留在我原先的日本京都实验室。第二台被比利时的一个语音处理实验室购买,后来转移到了一个生物信息公司,同样也是在比利时。第三台被我的比利时实验室购买,第四台被我的硬件同事所拥有。因为比利时拥有了世界上四台机器的两台,比利时从某种意义上来说在这个领域是世界上的领导。在2000年,我成功的从布鲁塞尔政府获得了100万美金的研究资金,用来制造人工大脑,来控制一个像小猫一样的机器人,使它拥有数百个行为能力。所有这些90年代的工作只是我以前在80年代博士工作的一些延伸。
CBM到底能够做些什么呢?我相信他在那个时候是真正的一个神奇机器,当人们意识到它的重要性后,将会在计算机历史上给它重要地位。它直接用电子技术实现基于CoDi胞腔自动机的神经网络模型。它可以在几秒内进化成一个神经网络,也就是说,它可以在此时间内进行整个一个基因算法,也就是几万个神经电路模块的生成和适应性的计算。它可以每秒1300亿次的速度改变胞腔自动机细胞的颜色。它可以处理将近一亿个人工神经元。它的计算能力相当于10,000个个人电脑,因此绝对是一个只花费500, 000美金的超级计算机。
作者:地球主义者 回复日期:2006-09-04 09:17:14
CBM拥有两个主要的任务。第一个是去进化单个的一些神经电路模块或者是我所说的模块。一个神经网络是在拥有24×24×24个细胞或小立方体的三维胞腔自动机生长或进化的。这个空间可以容纳1000个神经元。像枝节一样的树突或轴突在这个空间里随机的生长。一个被编程的FPGA用来计算生长的网络的神经信号的质量。其基本的思想和我在1996年之前的所工作的是类似的。当一个模块进化完成后,它被下载到一个拥有十亿字节的内存中。64,000个这样的模块将被进化,每次一个,每一个都拥有自己的被人类“进化工程师” (Evolutionary Engineers或简称为EE)指定的适应值定义(任务或功能),然后被下载到内存中。然后,“大脑建筑师”(Brain Architects或简称为BA)用软件把这些下载的模块相互连接来形成它们人工指定的人工大脑结构,用来执行人们需要的任务。
布鲁塞尔实验室在信息灾难(Dotcom Crash)中破产之后,我转到一所美国大学(Utah State University即犹他州立大学)工作,被迫重新思考。当我的布鲁塞尔实验室无法支付从他手中购买的CBM机器时,我的负责硬件的同事损失了三十万美金,让我从整个项目中洗手不干了。因为他对CBM的具体结构有垄断的知识,这让工作的紧张变成了令人惊愕的停顿。我的美国大学负不起50万美金来购买第五台CBM,因此我只好空手来到这所大学。我花了2年多时间去学会怎样去教学和写关于可进化硬件和量子计算的论文,直到我意识到我可以再制造人工大脑,多亏了摩尔定律,这次可以便宜的多。
一家英国公司开发了一种能够将普通的计算机软件代码(计算机语言C)翻译成能够设置可编程芯片(FPGA)的比特串指令的方法。我构思了一个新的大脑制造研究项目。这种新的途径就是用FPGA电子电路板(花费少于1000美金)来编写基因算法来进化神经网络。这种板子进化一个神经网络电路模块要比个人电脑利用软件(后者需要几个小时甚至几天来进化一个模块)要快几十倍。
这些模块一个接一个的在硬件上被进化后,然后结果被下载到PC上。每一个模块都有自己的进化功能,是被大脑建筑师明确说明的。当几万个这样的模块被下载到PC上,将需要一种特殊的软件来相连这些模块,例如,模块M3728的输出将会被连接到模块M9356的第二个输入口。
PC然后被用来进行整个人工大脑的实时(平均每秒每个神经元25个神经信号)神经信令活动。今天的PC可以实时模拟10,000个模块的神经信令活动。整个我所谓的“便宜的大脑制造”方法花费低于2000美金,因此我希望这个概念可以扩展到其它的大学和研究所里。理所当然,如果我真的可以在近几年里制造出一个这样的大脑并且证明它可以控制机器人完成一些任务的话,这对于我的同事们和资助者们来说将会更具有说服力。
作者:BabyFat123 回复日期:2006-09-04 10:10:46
能否提供一个下载地址,这样的版面很难看完一篇文章
作者:tiy530070344 回复日期:2006-09-04 10:20:21
顶
------------------------------------
打造一个Q版的你?
定制“卡通真人雕像”,给我照片就可以
QQ:450368279 看我QQ资料
作者:地球主义者 回复日期:2006-09-05 09:00:31
自己座座
作者:地球主义者 回复日期:2006-09-05 09:06:29
天涯版主一天只让贴我10次贴子,而我又不愿意去别处发表我最新翻译的文章,那我每次少贴点行吗,但是我每次贴的,全是连续性的啊!
作者:地球主义者 回复日期:2006-09-05 09:18:23
未来的任务和理想
如果那些嘲笑我是荒谬断言的人能够看到这一点,即我可以在2001年前制造一个拥有十亿个神经元的人工大脑,并能够在1993年看到2001年出现CBM,他们就不会嘲笑我了。老实说,这台机器不是处理十亿个神经元。实际上的数字是7500万个,但是那只是差一个数量级。这已经不错了。同样无可否认的是,建造人工大脑这样一个艰巨任务仍然没有完成。这里有很多的工作要去做,并且我一直饱受责难。因为这些滞后,不管是因为商业原因、技术原因、管理原因,还是个人原因,我至今还没有一个人工大脑来显示给人们。一些记者开始变的不耐烦,并且怀疑我是否能够,什么时候可以制造出一个。因为布鲁塞尔实验室快要破产了,我不能够随意的去告诉记者原因。太让人沮丧了。
当时的计划是在破产前完成机器进化研究。一次进化一个模块。如果进化的程度不够,我们将不得不改变在CBM中使用的适应值定义。我们可能也不得不改变实现在可重复编程的FPGA板子上的神经网络模块。当这一步骤完成后,下一步可能就是开始制造多模块系统,先是拥有几十个模块的,然后几百,几千,直到64,000个模块来制造一个志在控制机器人行为的人工大脑。我们打算展示一个人工大脑控制的拥有很多行为的猫形机器人。人们不需要博士学位来理解到底是怎么回事,就像理解CBM一样,相反,通过对机器人的简单观察,人们可以看到“它有一个大脑”。
作者:地球主义者 回复日期:2006-09-05 09:20:34
在做这些可能会花费好多年工作的同时,有必要去认真的考虑下一代大脑制造机器,就是我所谓的BM2(brain building machine 大脑制造机器,第二代)。我开始和另一位美国同事合作,他有一些关于下一代自我设置的电子技术的革命性的思想。他预计,如果有几百万美金的预算,在未来四年内制造比CBM性能高1000倍的下一代机器是可能的。
然而,既然我不能让美国的资助者给出这个数目,我只好满足于我在前面章节介绍的更合适的方法(也就是“便宜的大脑制造”)。
事实上,我的总体构想是,每隔4-5年制造新一代的大脑制造机器和相应的大脑。我现在已经快60了,所以如果我决定70多岁退休的话,我只有15-20年的时间,或者是三代。在20年内,如果摩尔定律可以还可以有效,人们将有能力让一个原子存储一个比特的信息。当这些发生后,制造我所谓的“阿伏加德罗机器”,一种具有万亿万亿个部件的机器将变成可能。阿伏加德罗数字就是像人类这样级别的物体,比如手中的苹果,可能含有的分子数目。
如果第二代大脑制造机器可以被资助,并且在未来的4-5年时间可以被制造出来,就可能让下一代人工大脑和生物大脑更相似。实现的神经网络模块将更复杂,并且行为上和生物神经元更相似。
作者:地球主义者 回复日期:2006-09-05 09:22:31
仅仅在下一个20年,也就是我自己剩下的职业生涯,我和其他大脑制造者将拥有制造更好的人工大脑所需要的技术和工具。
并没有令人惊讶的是,我和其他一些人开始对大脑制造在未来20年预期的进步速度开始警觉。我们的人工大脑那时候将为人类做些什么呢?我可以说,很有可能,它们将出现在我们的家里,为我们打扫房间,照顾小孩,和我们聊天,给我们来自地球上知识库里面的无限知识。我们将可以和它们有性关系,被它们教育,从它们得到娱乐和开怀大笑等等。20年后的大脑制造业,我预计,每年全球范围内将可能价值万亿美金。在这些年内,我希望并预计,如果我们组可以“证明这个概念”,那就是人工大脑是可行的,那么一个崭新的“大脑制造”研究领域将会成立。
如果我们在20年内可以拥有这些的话,那么人类在之后的50年,100年内将何去何从呢?假设我们关于大脑科学的知识累计是以指数级增长的话,所有的这些知识可以一发现就马上被神经工程学吸收,那么一开始对人工大脑的正面影响会很快被不愉快和恐惧所代替。
我愿意被看作是人工大脑之父。我觉得我已经是进化硬件和进化工程学之父,这些都是这个新领域(人工大脑)的启动技术。如果我是一个传统思维的工程师或科学家的话,我将可能很满意,并继续我的工作而不需要担心工作的长期社会后果,但我不是这样。我是一个对政治关心的人,我非常忧虑。我的不寻常的科学家/工程师身份和此时的社会评论家和媒体人的组合,使我成为对人工智能问题敲响警钟的合适的人
作者:地球主义者 回复日期:2006-09-05 09:24:50
我希望,我的信誉和作为职业大脑制造者,将有利于帮助我对21世纪人工智能敲响警钟。如果我没有成功的制造人工大脑,其他人也会成功的。对我来说,要成功的制造每一代大脑制造机器和相应的人工大脑,就需要筹集更多的金钱,雇佣更多的人,因为这个行业的范围将越来越广泛。我需要称为戈达德,美国火箭工程学的先驱者,或者沃纳. 冯.布劳恩,让美国人登上月球的人。这两个人都是从玩具火箭开始的,但是有先见之明。在二十世纪二十年代戈达德的第一个装置不比古代中国式的火箭进步多少。二十年后,他和冯.布劳恩都被各自的政府巨额资助,来制造能够长距离旅行的高度复杂火箭。在六十年代晚期,冯.布劳恩在美国国家航空和宇宙航行局把阿姆斯壮送入月球中发挥了巨大的作用。
我也有着同样的梦想。那是一个花费几十亿美金制造人工大脑的国家性的项目。我已经谈论过J-Brain计划(日本国家大脑制造计划),A-Brain计划(美国的),E-Brain和C-Brain(欧洲的和中国的)。在20年内,拥有了阿伏加德罗式机器,将会有巨大数量的工作要做,不仅仅是几十亿个部分,而是很多万亿个部分。将会需要很多很多的人。那是我的远期理想,到今20年后。
作者:地球主义者 回复日期:2006-09-05 09:26:15
那之后,我将会退休,我希望能够发挥一个智慧老人的作用,指导年轻人的思维,告诉他们整个大脑制造的努力方向。正如这本书所表明的,我对当机器以指数级变的比人类聪明时,我对人类的未来生存不报乐观态度。
我的最终目标是,看到人类或者至少是一部分人,变成宇宙主义者,成功的制造神一样的人工智能,远胜过我们这些微不足道的人类智慧或者其他能力。那是我真正的目标。很不幸的是我可能看不到那一天。真正的人工智能在我死去的30-40年内不会被制造出来。我活着看不到我工作的真正结果。这是让我沮丧和失望的一个根源,但也是一个安慰。至少我寿终之时会安详的在床上。正如这本书所说明的,我会为我后代感到恐惧的,因为我相信他们很可能会在本世纪晚期因为物种问题的大规模死亡的战争而被摧毁。
因此,亲爱的读者,你现在知道了我故事里面科技的一面和我这一生工作的简介。知道了这些会不会让你觉得可能的人工智能战争的政治观点更可信一些?我是不是应该告诉你我不仅是一位博士,更是一名美国教授和中国的客座教授。我也是一名达沃斯科学会员,那时候日本只有一个,所以我要去达沃斯经济论坛来取悦那些亿万富翁。我因为CBM进入了吉尼斯世界记录(2001年126页)。我是一本关于“进化神经系统”的特别学术期刊的客座编辑,这是本期刊的主编们专门授予那些被他们认为在全世界某些特别领域做的最出色的人的荣誉。如果很多人认为我所做的是很古怪的,那么我希望大家很清楚我是一个能胜任的怪人。这章的要点是让大家相信这本书的作者,人工智能,宇宙主义者,地球主义者,大规模死亡,等等这些术语的创造者是知道去倾听的。我是否成功或失败是不需要你们去判断的。
作者:地球主义者 回复日期:2006-09-05 09:27:06
下期预告:
使人工智能成为可能的关键技术
明天继续
作者:地球主义者 回复日期:2006-09-06 17:21:52
本章在陈述宇宙主义者用来支持制造人工智能的一些理由之前,有必要澄清宇宙主义者和地球主义者之间的争论的赌注是什么。
“人类这个物种生存”这个赌注到底意味着什么。
从来没有这么大的赌注,因此宇宙主义者所使用的论据需要是压倒性的有说服力,如果他们要克服人类可能被消灭的潜在的可怕威胁。这个危险程度是如此的巨大,以至于我敢说,大多数人,包括我自己,都无法在情感上想象我们所谈论的是多么大的一个潜在悲剧。
在20世纪,纳粹消灭了2000万俄国人,日本人杀害了2000万中国人,斯大林在他的集中营里杀死了3000万。这些都是人类历史上巨大的犯罪,然而它们和宇宙主义者决定消灭人类所带来的悲剧规模来比是逊色很多。这个悲剧完全意味着,将没有任何人存在来哀悼物种的灭绝。
面对这些,宇宙主义者,同样也是人,肯定会感受到难以想象的反对的道德论据-“你怎么能够想到要冒人类灭绝的危险呢?宇宙主义者是如此的魔鬼,如此的可怕,以至于你们会招致地球主义者对你们的灭绝。”
所有的国家都有关押杀人犯的监狱。杀人是不能容忍的。历史上臭名昭著的像上面所提到的大屠杀者几乎是被所有人类真正痛恨的。宇宙主义者怎么能够真的接受像“大规模死亡”的危险,消灭几十亿人类这样的可怕事情呢?
作者:地球主义者 回复日期:2006-09-06 17:25:44
对于这个问题的答案可以从相反的论据中得到,到底在宇宙主义者眼中哪一个是更重要的呢。
当我写这些话的时候,我的脊梁一阵发凉。我读过太多的这样的历史书,介绍一个新的政治或经济理论是经常怎样通过一位智者或教授把他们的独特想法写下来而开始,并且这些思想是怎样经常以伤亡几百万人的战争而告终。看看卢梭的民主思想。看看马克思的共产主义思想。
我感到不寒而栗的是来自于这章所介绍的论述的认识,他们这类的第一种,将来会有一天称为未来政治运动的理论基础,我相信,这些会最终以人类历史上最严重的战争结束。这场战争将使用21世纪晚期的科技而制造出来的最具毁灭性的武器。
在很多方面我觉得有很大的负罪感,因我认为我的工作是其中问题的一部分。作为一位职业的大脑制造者,我在创造一种使人工智能制造称为可能的技术。一开始它们将会很原始,但是它们会不断改善。在2000年,我已经拥有了一台建成的大脑制造机器,能够产生一个拥有大概1亿个人工神经元的人工大脑。我希望,我所预计在未来一些年内要制造的下一代大脑制造机器将会比第一代性能上优越千倍。
这些事实让我对即将到来的事情非常清楚。因为我认为我对人文科学(政治,历史,哲学等)很有研究。我觉得我对自己工作的长期社会影响,比我那些更具工程性思考倾向的同事们看得更清楚。
作者:地球主义者 回复日期:2006-09-06 17:27:19
我对自己所从事的工作研究几近精神分裂。深层上我是一位宇宙主义者。我经常问自己到底是怎样强烈的一位宇宙主义者,并且我自己有多少是地球主义者。我当然不是一个100%宇宙主义者。如果我是的话,那么我将会默默的从事我的工作,不会通报它的进展,并且会对超智能机器可能对人类长期生存的潜在危险保持绝对的沉默。
但是我想我不是一个魔鬼。我的第二任妻子一直笼罩在纳粹的奥斯维辛集中营的阴影之中,所以我了解大规模屠杀,种族灭绝巨大的恐惧。我生活在它的影响之中。当我的第二任妻子还是一个五岁的波兰小女孩时,她在比利时布鲁塞尔火车站台上被自己的母亲交给了完全陌生的人,因为有货车在等着把犹太人送到屠杀集中营。
对我来说,纳粹是魔鬼。日本人也是魔鬼但是还没有忏悔过。斯大林是一个魔鬼。我是一位魔鬼吗?我的工作,作为人工大脑研制的先驱,其科技可能会导致本世纪内大规模人工智能的制造,不可避免的会导致反对的意识形态的形成吗?会不可避免的导致一场人类历史上赌注最大规模的战争爆发吗?
如果这样的战争真的爆发,杀死了几十亿,导致“大规模死亡”,那么这会让我称为一位魔鬼,一位最坏的魔鬼,比希特勒,日本人,斯大林这样的魔鬼还坏的魔鬼吗?然而尽管如此,我还坚持,因为在我的内心深层次我是一个宇宙主义者。
作者:地球主义者 回复日期:2006-09-06 17:28:55
我认为不制造人工智能将会是更大的悲剧。我对人工智能制造的长远影响思考越多,就越认为自己是一个宇宙主义者。
但是我的情绪在波动。我夜不能寐,理性的思考着宇宙主义在宇宙层次上的重要性,思考着这些神一样的机器能做些什么,我感到一种敬畏。几个小时之后,我会从恶梦中惊醒,混身是汗。我看到了一些清晰的图像,那就是我的后代们一个世纪后,会死于人工智能机器之手,因为它们相对于人类来说是如此的高级以至于它们把我们看作是害虫。
这些情感上的事实和恐惧让我震动。一般来说,我睡的很熟,所以很多梦我都记不起来,但是这个恶梦经常出现,并且是如此的恐怖以至于可以让我从熟睡中惊醒。
所以,我对我的工作有一种特殊的情结。深深的被我的思想和情感撕扯着以至于不能表达出来。从我的思想上来说,我考虑人工智能的重要性,它们会怎样像神一样,并且以这一章将要呈现的证据来劝说我自己。从情感上来说,我对于这个概念和“大规模死亡”的前景感到恐惧,无论它们来自于人工智能机器之手,还是由我和其他大脑制造者的工作为主要原因所产生的,作为人类的宇宙主义者-地球主义者之间而导致的战争的后果。
我一直认为,当宇宙主义者-地球主义者之间的辩论普及到大众后,当真正要选择的时候,大多数人在他们内心的深处会是地球主义者。他们不想看到他们的家庭成员由于一些模糊的,抽象的,情感上遥远的人工智能的制造而被毁灭,因为这些都是太遥远和太高级的,以至于它们和我们没有任何共同的东西,那么有什么必要为它们的制造而冒如此可怕的危险呢。
我在演讲的结尾邀请人们来投票。“你是宇宙主义还是地球主义?”当你读完这本书后我也请你来问自己同样的问题。第一次当我问我的听众这个问题时,结果让我吃了一惊。我预计结果是10%是宇宙主义,90%是地球主义的结果,但是事实是很不同的。投票结果是很平均的,大概50/50。我认为这大概是因为这些思想对于人们来说是崭新的,因此他们不会真正懂得其意义,且因随机的投票。每个随机的投票几乎都是产生50/50的结果。
为了改变投票的百分比结果,我改变了我演讲的内容。我更清楚的阐述了“大规模死亡”的可怕后果,并且更鲜明的呈现了许多地球主义者的强有力的论据,这些我在下一章会讨论。但是,投票结果保持在中线附近,60/40,40/60,50/50。
作者:地球主义者 回复日期:2006-09-06 17:31:03
慢慢的我开始意识到,我想这些投票结果是反映了深层次的事实,那就是宇宙主义/地球主义的争论分化了人们自己,也就是个体自身。人们会走到我面前,告诉我他们和我这些年的感受一样,也有同样的二重性。只有很少的一部分人会很清楚自己的阵营。
一些人找到我并且对我说,如果我继续坚持的话,那么我将应被处死。我说,“你是最早的地球主义者之一 !在未来可能会有几百万或几十亿的人会像你一样!”
但是我发现多数人两种想法都很强烈。我认为宇宙主义会和大多数人达到共鸣,就像我一样。我认为,就我们人类的本质来说,我在本章很快就要描述的论据拥有很强的吸引力。它们是强有力的证据。它们会唤起人们好奇,探索和宗教般敬畏等等的感觉。
然而,地球主义者的论据也很有力,就像下一章将要看到的,所以当我想到会发生些什么的时候我会觉得很沮丧。拥有两个强有力的,相互之间强烈对立的,并且事实上是致命对抗的并且非常不和的意识形态,发生一个大冲突的可能性只会增加。
最惨烈的战争经常是内战,兄弟之间互相屠杀。美国内战,主要是为了奴隶制度的道德问题和从州联邦脱离的权利而战,也是在某种程度上从意识形态上把北方和南方分离开来。
地球主义者/宇宙主义者之间的冲突将是全球范围的内战,因为它和地理没有关系,也就是说,并非某一个地理群体拥有更多的地球主义者,另一个地区拥有更多的宇宙主义者,虽然不排除这样的可能性。在21世纪中,全球电信能力将可能足以强大让地球上的居民能够理解这场伟大辩论中的相互对立的观点。
作者:地球主义者 回复日期:2006-09-06 17:32:04
人们将会根据自己的个性,能力和兴趣来决定,而不会被地方媒体“洗脑”。那时候的媒体将主要是全球性的,拥有来自全球各地成千上万的新闻和观点来源。
上面已经介绍了一些宇宙主义者的论据,现在我将开始更系统的,一条论据接一条的,按照我的观点从最重要和最有力的顺序开始来陈述。我将为每一条论据命名。
我预计,这些论据只是“宇宙主义智囊团”在未来发明的许多论据的一小部分。因为我认为宇宙主义者/地球主义者之间的意识形态上和后来的军事冲突将主导我们的世纪,只有预期社会上等的智者投身于两种对立思想的实现才是合理的。
当我开始写下这些我已经考虑过很多年的论据时,我开始对另一件事感到不寒而栗。我感到了对未来亿万人民的生活质量的沉重责任。我觉得,从某种意义上,我可能已经开始了从事最终摧毁他们的事情,并且在某些方面上我是选择这样做的。在另一层意义上,我觉得我没有其它选择,因为宇宙主义者的论据是如此的有说服力以至于我感到没有其它替代方案。宇宙主义对我来说太有吸引力了。
作者:地球主义者 回复日期:2006-09-07 09:09:47
看看
作者:地球主义者 回复日期:2006-09-14 15:22:50
沉的真快
作者:幽浮闪灵 回复日期:2006-09-15 17:46:47
顶一下,好莱坞大片讲的故事不一定不会发生。
BTW,我不信神,所以我是坚定的地球主义者
作者:BabyFat123 回复日期:2006-09-15 23:04:33
是否制造智能机?这种问题相当无聊,显而易见,不是人类是否应该制造的问题,而是不得不造的问题.只要有一个人造了,那就会有第二个人,就像造原子弹一样,根本不是愿不愿的问题,而是砸锅卖铁也要造。
作者:孙灵运 回复日期:2006-09-16 02:52:15
楼主继续贴啊,我是一个写了几篇有关人工智能文章的科学爱好者,人工智能我太感兴趣了,我一直想找机会学习这方面知识。
作者:edali 回复日期:2006-09-16 13:10:06
楼主自己翻译的?
作者:edali 回复日期:2006-09-17 01:26:25
科普型的书吧,不错,怎么没下文了?也不知道哪里有售。
作者:孙灵运 回复日期:2006-09-17 20:34:59
楼主快贴啊,我天天上来等着看呢。
作者:小编坤伶 回复日期:2006-12-30 08:30:12
这的确是一本科普哲学书,但绝非科幻小说!
世纪全球的政治将取决于“物种主导”问题。
主导本世纪全球政治的问题将是人类是否要制造这些人工智能。
作者:小编坤伶 回复日期:2006-12-30 08:33:36
这本书太重要了,太轰动了,不应该草率地被忽视。我建议你读它,然后再读一遍,试着找出预估逻辑和辩论上的漏洞,以便我们可以期待一个和平繁荣的21世纪。因为,如果雨果的见解是正确的话,那个像电影《终结者》中描述的地狱般的梦魇将会成为事实。
全球著名人工机器科学家—— 凯文.沃里克,博士
这不是悲观主义者应拿起的书,此书在2007年1月会正式出版,我们提前出版的目的在于:
希望全球公众将能够意识到什么即将到临,并且将热烈的讨论这个话题,以及解决方案。
人类能成为这是这场变革的控制者呢不是牺牲品!!
我个人是坚定的地球主义者!!!!!
作者:小编坤伶 回复日期:2006-12-30 08:36:29
雨果 德 加里斯教授具体介绍
Hugo de Garis博士是武汉大学国际软件学院(ISS)人工智能小组带头人;被世界吉尼斯授予“世界上最复杂的大脑建造器”的称号;2001年法国巴黎世界第一届物种优势大会主发言人;曾是美国犹他州、比利时布鲁塞尔、日本东京等重点实验室的人工智能带头人。他在中国、美国、比利时、日本等七个国家都居住过,负责完成了世界上四个“人工大脑”中的两个,他准备在中国呆上15年,希望在武汉实现这个愿景——“试图使武汉大学国际软件学院、武汉大学和武汉市成为世界级的‘人工大脑’研制中心之一”。他相信中国将会是这个世纪很耀眼的一个国家,因此应该在这场关于机器智能和人类智力的争论中起到主导作用。
雨果在世界上开创了“可进化硬件和量子计算”的研究领域,被称为EH领域之父,进化硬件和进化工程学之父。他的人工大脑制造工作和机器还引起美国、英国、法国和荷兰各大媒体的广泛关注,被称为“人工大脑之父”。
作者:小编坤伶 回复日期:2006-12-30 08:37:03
世界上最著名的“应用道德规范”教授——普林斯顿大学教授彼得辛格博士把雨果定位于“完全的怪人”和“超越时代的天才”之间。
英国里丁大学控制论教授凯文•奥里克博士在为雨果的《人工智能的战争》一书前言中写道:“他是‘人工大脑’这个新领域里的先驱者。如果世界上有哪个人是处于预测高级人工大脑对于人类的影响的优越位置的话,那么这个人就是雨果。如果‘物种主导问题将在本世纪主导我们全球政治被证实’,那么他将是21世纪最主要的思想家之一。”
法国主流报纸《CeMonde》登载了十余篇关于雨果的报道,充分的关注以至于2001年7月在巴黎引发了一场国会听政会。他因为EBM=CAMBRAINMACHING进入了吉尼斯世界记录。他是世界著名特别学术期刊《进化神经系统》的客座编辑。这种个职务是专门授予世界上某些特别领域那些最出类拔萃的精英的一种荣誉。
他出生于澳大利亚悉尼,在墨尔本大学获“应用数学”和“理论物理”两个荣誉学士学位 ,后赴英国牛津大学学习。随后在布鲁塞尔大学研究生毕业,学习人工智能、机器学习。值得一提的是,他获得过6项世界专利,并经常出现在法国、荷兰、英国、澳大利亚、波兰等世界各国的电视、报纸、杂志、电台、网络等媒体上,如美国有线新闻台CNN、英国BBC,著名电视节目英国的“探索R26”、“发现(Discovery)”,都有他的专题采访节目和报道。还有许多国家的电影摄制者拍摄了有关他的电影记录片。在因特网中可以观看和收听,国际媒体上有关于他的报导和采访更是有上百件次。
1987年-1991年,雨果师从“机器学习”开山鼻祖RrszardMichalski教授,在乔治•梅森 大学(GMU)人工智能中心作研究员。
1992年在该大学完成博士学位,在全欧洲自然科学和工程学,评选出最具成就的60名博士候选名单中,他名列前10,获得两年到日本筑波“科学城”博士后奖学金,在此和京都(ETL)研究实验室从事研究人工大脑的制造。
2000年雨果从布鲁塞尔政府获得100万美金的研究资金,回到比利时布鲁塞尔制造人工大脑,控制有数百个行为能力的机器人。
2001年9月移居美国,在犹他州立大学任教。
2006年2月8日,美国上演关于他和他的人工智能的电影记录片1小时21分钟,并将参加2006年、2007年欧洲和美国电影节。http://googlewideo.com搜索:“buildinggods”可以网上观看。2006年他还作为人工智能教授AIProfs.编入“世界编年http:/ /chronicle.com。
到2005年1月止在国际因特网站,关于雨果和他的研究项目有220000信息点,用“Google”引擎搜索HugodeGaris有关信息达43000多条。
最近他被委任为武汉大学国际软件学院人工智能研究室负责人. 到武汉大学任职以前,雨果博士是美国犹他州立大学计算机方面的教授,同时也是应用数学、理论物理学副教授,一直担当博士生导师和教授研究生课程。
雨果是科学家、研究性教授,是世界上设计和制造“人工大脑”领域的领袖。他不仅是人工大脑制造设计研究人员和物理学家,也是一个作家,一个有着政治和伦理意识的社会评论家。他不仅精通数学、物理学、计算机科学软硬件,还能说流利的英语、法语、德语、荷兰语和日语。他的著作也已被译成英文、法文和德文在欧洲和美国发行。他是世界经济论坛——“瑞士达沃斯科学学会”会员,出席在瑞士召开的世界经济论坛并多次演讲。 雨果的经历确定了他必定是个丰富的多元化的人。目前他正在刻苦学习中文,他曾多次来中国 讲学,并以极大的热情关注着中国的发展。当然,雨果新近与中国未婚妻雷国庆结婚是他来中国的理由之一。他看到当前中国比美国存在有 更多的机会,中国本世纪将成为赢家。去年武汉的经济增长比率为14%,和美国比较,美国 仅为3%左右。雨果通常喜欢在赢的一边,这使他感到骄傲和自豪。雨果还认为在武汉大学可以有许多优秀而勤奋的的高才生(博士生)参与他的研究,以帮助实现研制人工大脑的目标。
作者:小编坤伶 回复日期:2006-12-30 08:41:30
在这里,我要解释一下,何为地球主义者,何为宇宙主义者
那些支持制造的人们由于其“宇宙的”视角被称为 “宇宙主义者”(Cosmist)。那些反对制造它们的人被称作“地球主义者”(Terran),因为“terra”,即地球,是他们的视角。宇宙主义者们将渴望制造人工智能机器,是因为对于他们来说这是一种宗教,一种符合现代科学知识的科学家的宗教。
宇宙主义者们认为,人类有责任成为制造进化阶梯中下一个物种的奠基石。对于他们来说,不这样做将是宇宙的一个灾难。
宇宙主义者将声称,停止这样的进步将违反人类的天性,因为人类一直尽力去扩展其极限。
宇宙主义者的另一个观点是,一旦基于人工大脑的计算机市场主导了世界的经济,支持制造先进人工智能机器的经济和政治动力将几乎不可阻挡。宇宙主义阵营将拥有地球上一些最有权势、最富有和最聪明的人,他们将以其巨大的能力来支持人工智能机器的制造。同样的论述还有军事方面的以及其智能武器的使用。不管是商业的还是军事方面都将不愿意放弃人工智能研究,除非他们受到地球主义的极端压力。
对于地球主义者来说,制造人工智能机器意味着要冒这样的风险,那就是人工智能机器在某个时候将有意的或者无意的决定要灭绝人类。避免这样风险的唯一保险方法就是首先不要制造它们。地球主义者声称,人类将对于越来越聪明的机器和其巨大的不同性感到恐惧。制造人工智能需要“进化工程”方法,人工智能的进化结构的复杂性将是如此的巨大以至于人类无法预测其对人类的行为和态度。如果宇宙主义者们继续进行高级人工智能制造计划的话,地球主义者随时准备消灭宇宙主义者,即使是在遥远的宇宙主义者的领地。
作者:小编坤伶 回复日期:2006-12-30 08:43:23
问题的争论还有可能在21世纪中期引发一场战争,那么,人类将会是这场变革的牺牲品,还是控制者呢?
作者:金光党 回复日期:2006-12-31 10:47:36
我等着呢,快更新吧
作者:小编坤伶 回复日期:2006-12-31 10:52:38
在陈述宇宙主义者用来支持制造人工智能的一些理由之前,有必要澄清宇宙主义者和地球主义者之间争论的“赌注”是什么。
这个“赌注”便是“人类作为一个物种的生存”。
任何**的赌注都不会如此之大,因此宇宙主义者所使用的论据需要有压倒性的说服力,如果他们要克服人类可能被消灭的潜在的可怕威胁。这个危险程度是如此的巨大,以至于我敢说,大多数人,包括我自己,都无法在情感上想象我们所谈论的是多么大的一个潜在的,可能发生的悲剧。
在20世纪,纳粹消灭了2000万俄国人,日本人杀害了2000万中国人。这些都是人类历史上巨大的犯罪,然而这和宇宙主义者决定消灭人类所带来的悲剧规模来比逊色很多。这个悲剧意味着,将没有任何人存在来哀悼人类物种的灭绝。
面对这些,宇宙主义者,做为人类的一部分,肯定会感受到难以想象的反对的声音和道德上面的谴责——“你怎么能够想到要冒人类灭绝的危险呢?宇宙主义者是如此的‘魔鬼’,如此的可怕,以至于可能会招致地球主义者对你们的灭绝。”
作者:小编坤伶 回复日期:2006-12-31 10:54:24
所有的国家都有关押杀人犯的监狱。杀人是不能容忍的。历史上臭名昭著的如上面所提到的大屠杀者几乎是被所有人类真正痛恨的。宇宙主义者怎么能够真的接受像“大规模死亡”这样的危险,消灭几十亿人类这样可怕的事情呢?
对于这个问题的答案可以从相反的论据中得到:到底在宇宙主义者眼中哪一个更重要呢?
当我写这些话的时候,我的脊梁一阵发凉。我读过太多的这样的历史书,介绍某种新的政治或经济理论是怎样通过一位智者或教授把他们的独特想法写下来而开始,并且这些思想是怎样经常以伤亡几百万人的战争而告终。看看卢梭的民主思想。
让我感到不寒而栗的是,当我意识到本章提到的这种争论,其中的一方,将来有一天会成为未来政治运动的理论基础时,我相信,这些最终会以人类历史上最严重的战争结束。这场战争将使用21世纪晚期的科技而制造出来的最具毁灭性的武器。
在很多方面我觉得有很大的负罪感,因我认为我的工作是其中问题的一部分。作为一位专业的人工大脑制造者,我在创造一种使人工智能制造成为可能的技术。一开始它们将会很原始,但是它们会不断改善。在2000年,我已经拥有了一台建成的大脑制造机器,能够产生一个拥有大概1亿个人工神经元的人工大脑。我希望,我所预计在未来一些年内要制造的下一代大脑制造机器在性能上将会比第一代优越千倍。
作者:金光党 回复日期:2006-12-31 10:55:35
终于有新贴了,座座
作者:娄二少 回复日期:2006-12-31 14:55:00
作者:小编坤伶 回复日期:2006-12-30 08:36:29
雨果 德 加里斯教授具体介绍
Hugo de Garis博士是武汉大学国际软件学院(ISS)人工智能小组带头人;被世界吉尼斯授予“世界上最复杂的大脑建造器”的称号;2001年法国巴黎世界第一届物种优势大会主发言人;曾是美国犹他州、比利时布鲁塞尔、日本东京等重点实验室的人工智能带头人。他在中国、美国、比利时、日本等七个国家都居住过,负责完成了世界上四个“人工大脑”中的两个,他准备在中国呆上15年,希望在武汉实现这个愿景——“试图使武汉大学国际软件学院、武汉大学和武汉市成为世界级的‘人工大脑’研制中心之一”。他相信中国将会是这个世纪很耀眼的一个国家,因此应该在这场关于机器智能和人类智力的争论中起到主导作用。
雨果在世界上开创了“可进化硬件和量子计算”的研究领域,被称为EH领域之父,进化硬件和进化工程学之父。他的人工大脑制造工作和机器还引起美国、英国、法国和荷兰各大媒体的广泛关注,被称为“人工大脑之父”。
---------------------------
天涯IT版的智商都被某些顶贴的SB丢没了
这位武汉大学的带头人
做了两个人工大脑,都没显示出任何智力,
骗了日本40万,又骗了比利时100万,两个研究机构都关闭了
又来武汉大学了~~~
这哥们最大的特长是创造时髦的词汇,仅此而已
作者:金光党 回复日期:2007-01-04 09:54:38
娄二少你怎么这么SB
这段经历是雨果自己在书中写到的,关你B事
SB
论主快贴啊,等着看啊!!!
作者:独孤行者_ 回复日期:2007-05-16 11:27:43
大家不要急, 这本书还有几天就要出版了, 是清华出版社出版的.
不过这盗版出来的也太快了, 正版书稿还在我们几个人手上校对呢......
娄二少这人智力和人格都有问题,大家别理他.
作者:天连夜月 回复日期:2010-06-30 20:36:04