展会信息港展会大全

赫拉利深度对话李开复:当AI比人更聪明,我们还剩什么?|独家首发
来源:互联网   发布日期:2024-12-13 15:21:31   浏览:213次  

导读:《AI未来指北》特约作者 郝博阳编辑 郑可君李开复对话《智人之上》作者赫拉利:AI时代的商业与个人12月12日,知名学者、《智人之上》的作者赫拉利与国际AI专家、零一万物首席执行官、创新工场董事长李开复博士就生成式AI对个人及世界的影响,开展了一次对谈。在这场横跨巴黎与北京的视频对话中,两位相隔万里的思想家展开了一场关于人类命运的深度探讨。对话伊始,两人就勾勒出 ......

赫拉利深度对话李开复:当AI比人更聪明,我们还剩什么?|独家首发


《AI未来指北》特约作者 郝博阳

编辑 郑可君

李开复对话《智人之上》作者赫拉利:AI时代的商业与个人

12月12日,知名学者、《智人之上》的作者赫拉利与国际AI专家、零一万物首席执行官、创新工场董事长李开复博士就生成式AI对个人及世界的影响,开展了一次对谈。在这场横跨巴黎与北京的视频对话中,两位相隔万里的思想家展开了一场关于人类命运的深度探讨。

对话伊始,两人就勾勒出了一幅令人深思的图景:人类之所以能够主导这个星球,并非源于超越其他物种的体魄或智慧,而是因为我们构建了一个空前庞大的协作网络。然而如今,这个建立在信息交换基础上的人类优势,正面临着我们自己造就的挑战:一个不仅能处理信息,还能自主决策和创造的智能体。

最令人深思的是,人工智能带来的真正挑战并非科幻电影中描绘的机器人统治,而是它对人类社会肌理的悄然改变。从主导我们信息获取的社交媒体算法,到可能重塑金融市场的智能交易系统,再到取代传统工作岗位的智能助手,这些改变既带来机遇,更孕育着风险。这些风险值得每个社会参与者的注意。

但在这场充满哲思的对话中,最引人深省的或许是两位专家对人性本质的思考:当AI能够模仿人类的智能,甚至在某些领域超越人类时,我们究竟还剩下什么?

答案令人意外地朴素而深刻:是意识,是感受痛苦与快乐的能力,是对他人真实的关怀。

因此在这场技术革命中,人类并非注定要被超越。赫拉利与李开复都指出,人工智能的崛起反而迫使我们重新思考人性的本质。它提醒我们,真正的人际关系建立在对他人痛苦的关怀之上,而不是简单的需求满足。

赫拉利深度对话李开复:当AI比人更聪明,我们还剩什么?|独家首发

以下为对谈实录(经编辑删减):

赫拉利:您好,李博士。同时,也向各位观众问好。我现在在巴黎,非常高兴能够以视频连线的方式与大家见面。得益于现代科技和信息技术的发展,即便我们相隔万里,也能保持联系。

李开复:是的,再次见到您真是太好了,赫拉利教授。我们以前几乎每年都能见面,但是疫情把我们分开了,再次见到您真是太好了。

赫拉利:人类之所以能主宰世界,是因为我们比任何其他动物都更擅长合作。就个体而言,我们不比其他动物聪明或强壮多少。以黑猩猩为例,它们只能在50只或100只的小群体中合作,而人类却能够建立跨越数百万乃至数十亿人的大规模合作网络。

这正是我们力量的来源,我们通过信息交换来实现这一点。我们并不直接认识自己所在国家、公司或商业网络中的大多数成员,但我们保持联络、我们相互连接、我们通过信息进行协作,这就是信息为何如此重要的原因。

实际上,我们并不直接生活在现实中,我们不是对现实本身做出反应,而是对我们对现实的印象做出反应。我们根据所获得的关于现实的信息作出回应,这正是信息至关重要的原因。

在历史的这一阶段,我们发明了有史以来最强大、最重要的信息技术人工智能。人工智能的独特之处在于,它不单是我们手中的工具,它还是一个活跃且自主的代理,能够自行做出决策,能够自己发明和创造新想法。

在历史上,我们发明了许多工具和机器,但对这些工具和机器的控制权始终在我们手中,尤其是对信息的控制权。

以印刷机为例,它使我们能够广泛传播我们的信息、故事和思想,但印刷机从未自行做出过任何决定。比如,印刷哪本书,印刷机不能创作新书。它不能创造信息,只能复制和传播我们已有的作品。而人工智能则不同,人工智能能够自行做出决策并且能够自行产生新的想法。这是人工智能的特征,这定义了它的本质。

现在,关于人工智能有很多炒作和误解。什么是人工智能?它与以往的机器或计算机有何不同?区别在于,如果某个系统不能自我改变、不能学习和创造新事物,那么它就不是人工智能,而只是一台老式机器。

我们之所以能够主宰世界,是因为我们创建了这些信息网络。但现在,我们可能已经创造出了一种能够从我们手中夺取信息网络控制权的东西。

在我请李博士分享他的观点之前,我想举一个例子。

以编辑的角色为例,无论是书籍出版、新闻机构还是报纸的编辑,他们都是世上最重要的一些人物,拥有巨大的权力。他们需要从昨天世界上发生的上百万件事情中挑选出最重要的10件,让它们出现在报纸头版或电视新闻播报中。如果你问自己:“当今世上最重要的编辑是谁?他们的名字是什么?”你会发现他们没有名字,因为它们是算法,它们是人工智能。

大型社交媒体平台的编辑,比如YouTube、Twitter或TikTok,已经不再是人,它们是人工智能。所以,人工智能已经开始从我们手中接管对信息网络的控制权。

李开复:是的,我同意赫拉利教授的观点,人工智能将推动自己再次实现更大的飞跃。

在我的日常工作中,我已经使用人工智能代劳我所做的大部分事情。我认为,越来越多的人正在这样做,但是许多人认为人工智能只是一个聊天机器人,或是一个智能搜索引擎。这确实是当前的情况,但这仅仅是它的初步表现形式。

我们已经看到这样的落地场景,比如“给我一个答案”“与我对话”。它正在转变为我的助手,帮助我完成任务,而这将进一步发展为数字人劳动力接管某些人的部分或全部工作。随后,它将转变为接近自动化的状态即人类给出指令,人工智能作为智能体,自由地创造信息、做出决策。最终全自动化的助手将成为代表公司或个人的智能体,决定做一些人可能未明确指示,但人工智能认为“你需要”的事情。

在某种意义上,TikTok给你推送一个视频,就是一个非常简单的例子。你并没有主动要求看那个视频,但它认为你会感兴趣。如果将这种智能放大一百万倍,人工智能就能知道你想如何投资并替你进行投资。人工智能知道你妻子的生日快到了,就会帮你买礼物。

这些都是相对无害的例子,当然,还有许多可能带来潜在问题的例子。

赫拉利:您是否认为我们很快就会看到人工智能在金融市场中做出重大决策?比如人工智能投资者和人工智能制定新的投资策略甚至创造新的金融工具?

李开复:是的,这在某种程度上已经发生了。在美国、中国及其他国家和地区,许多人工智能量化基金已经取得了出色的回报。这些基金基本上是由人工智能来做决策,人工智能每天会分析所有的交易数据和新闻,并决定最佳的股票购买时机,然后在没有人类指令的情况下买进和卖出。人类提供的唯一信息是所有用于做决策的数据和目标,即在一定风险承受范围内达到最高收益,这已经成为现实。

如果我们审视人类的所有任务,投资可能是最具量化性的任务。因为几乎所有决策都是基于实时信息,人工智能能够更快地阅读、筛选可能性、进行组合交易,并且能够更快速地买进和卖出,还具备更强大的信息获取能力。所以,当人们读到某位企业总裁的发言并考虑购买某只股票时,人工智能很可能已经抢先一步完成了交易。这已经成为现实。

赫拉利:那么,这是否会像在其他特定领域发生的那样,比如围棋?我们已经知道人工智能比任何人都更智能,甚至更有创造力。在金融领域是否也会发生类似的情况?

如果确实如此,那么当人类和人类政府失去了对金融系统的控制,这对社会乃至政治意味着什么?也许他们再也无法理解金融系统及主要的金融决策。所以,你仍然会有作为这个体系的官方领导的人类总统、总理和银行家,但他们不再能够理解这个世界的一个重要组成部分金融系统,也不再能够对其进行监管或做出决策。

李开复:是的,我认为几乎每个职业都有这种风险。在金融领域,我提到的AI获取信息的速度和广度是人类无法企及的。

有一些方面例外。比如,如果你是一名风险投资人,你可能依赖于直觉判断一个人的微表情真诚与否等;而在企业重组和并购中,你需要深入了解不同人格并进行更深层次的解读。但是,除了人与人之间的互动之外,在所有基于信息的方面上,我们都无法胜过人工智能。

人工智能医生将开始变得比普通医生更优秀。医生将开始把人工智能作为一个可能的参考,然后,随着人工智能不断进步,医生会失去自信,更加信任人工智能,最终变成一个橡皮图章。尽管我们将责任和医疗失误的后果归咎于医生,但当医生看到人工智能进步的速度时,最终不可避免地会感到人类在这方面远不如人工智能准确。

那时,医生将只是盖章担保决策逐步转向由人工智能做出决策。

赫拉利:是的,我们已经在军事领域看到了这种滑坡效应。

因为选择军事目标需要非常迅速地分析大量信息,所以人工智能将目标选取过程加速了几个量级。但这当然也引发了一个非常大的伦理问题,如果军方使用的人工智能告诉你某栋建筑是恐怖组织的总部或者是敌方的指挥部,你是直接相信人工智能并下令轰炸,还是先由人类来验证这一信息的准确性?

也许人工智能会出错,也许那只是个平民住宅;也许那里确实有敌军总部,但同时也有平民,他们可能会受到伤害。那么,你该如何选择?

现在,我不确定。我和许多人交流过,他们给出了不同的答案。有些人说军队只是简单地轰炸人工智能指示的目标。其他人则说:“不,不是这样的,我们有严格的伦理标准。我们会先由人类分析师确认,这是一个合理的目标。”

可能有时候是这样,有时候是那样。但在这场战争中,人工智能主要是在一方使用。但在未来的战争中,可能就在一两年内,一旦双方都拥有人工智能,做出这些伦理决策的空间将会缩小,因为决策迫在眉睫。如果双方都由人工智能选择目标,其中一方直接相信人工智能并立即采取行动,另一方却说:“不,不,不,我们需要人类来验证。”与人工智能相比,人类非常缓慢。也许在人类花费几天甚至几小时验证人工智能决策正确性的时候,目标已经转移,或者对方已经先发制人。

所以,军队将面临越来越大的压力,进而只是简单地执行人工智能的指令。

李开复:是的,我认为在许多其他问题中,让人类参与以确保安全的想法通常不具扩展性。这是同样的问题,在金融市场上,人类的参与会使流程效率降低,可能导致你赚不到那么多钱甚至亏损。

正如你刚才所说,在军事上也是如此。所以,我认为人类会倾向说让人类参与,这样我们会感觉更好。一开始人们会这么做,但在竞争激烈的时候,我认为这将变成一场懦夫博弈。

有人会说,让人工智能做决定可能是错误的。但如果我输掉战争或者破产那更糟,所以我将移除这个环节中的人类。所以,我认为我们需要另外的基本安全检查和防护措施。

赫拉利:比如什么?可能的解决方案是什么?

我的意思是,最简单的解决方案是保留人类环节,这在许多情况下是不可能的。无论是金融还是战争,因为速度的因素。那么,还有哪些其他的防护措施呢?

李开复:有时候,技术本身就是防护措施,最好的防护措施是另一种技术。

就像当电力被使用时,它会电击人,然后人们发明了断路器;当互联网产生病毒时,电脑中了病毒,就出现了杀毒软件。这一次要困难得多,但我认为,如果我们这些技术专家鼓励更多的人去研究防护性技术解决方案,而不仅仅是构建更智能的人工智能,那么一个有效的解决方案或许就会出现。

当然,另一种方法是监管。但我认为,很难对一项尚不为人熟知的技术进行监管,所以我认为我们应该双管齐下。一方面,研究技术防护措施,资助相关研究,鼓励聪明的人投身其中;另一方面,不应害怕利用我们现有的知识来实施监管。所以,欺诈交易的后果、深度伪造的后果、过失杀人的后果,无论这些是由人工智能还是人类造成,都应适用相同的法律。

可以说,如果人类使用人工智能大规模地进行这些行为,后果可能会更严重。但从监管的角度来看,我个人更倾向于使用现有法律并将其扩展到人工智能领域,而不是仅仅应用那些即将出台的法律。

人们只是猜测,“好吧,我们要对大语言模型进行监管,让我们阻止人工智能技术发展”,这些观点很武断,未经证实,而且很难执行。

赫拉利:但是谈到监管,特别是我们在唐纳德特朗普当选为美国总统后的两三天谈论这个问题。他主要是以放松管制为竞选纲领,并得到了埃隆马斯克的大力支持。我认为,所有关于美国将对人工智能发展施加管制的幻想,以及各国政府之间就人工智能监管达成某种全球协议的幻想,现在看来完全不可能实现。

我的意思是,即使在选举之前,也很难看到美国、中国、欧盟和俄罗斯就共同监管21世纪最具爆炸性的技术达成一致,现在看来这几乎是不可能的。

在美国大选结果揭晓后的两三天,您在北京对人工智能军备竞赛以及达成全球协议或监管的可能性有何看法?

李开复:我认为即便是在一国之内就规范技术达成共识已经很难,更不用说国与国之间了。所以,我会倾向于说,如果人类使用人工智能犯下某种罪行,或者需要因违规行为被罚款,那么必须将这种责任延伸到人工智能上。

但我很难乐观地认为可以达成全球协议。我确实理解您所说的选举情况,但我认为这非常困难。有人在讨论这个问题,但我认为OpenAI的内斗就是一个很好的例子,萨姆阿尔特曼支持进步,支持通用人工智能和人工智能,支持快速发展;而伊利亚和其他一些高管则支持安全性。

可以说,最有可能创建出令人担忧的接近通用人工智能的公司可能是OpenAI。之前,在追求速度和追求安全性之间存在着制衡。现在,支持安全性的人已经退场。OpenAI可能会发展得更快,可能会变得不计后果,当然也可能不会。我希望不会。

所以,我们面临着一个问题,就是我们难以监督这些力量,同时又存在着一个可能加速发展的市场领导者。这确实是一个挑战。

赫拉利:这似乎像是某种进化逻辑或进化竞赛。如果你更关心安全问题,决定放慢速度,投入更多资金建立防护措施,而不是尽可能快地向通用人工智能发展,那么你就落后了;如果竞争对手更无情一点,完全不顾及安全问题和防护措施,他们就会领先。

所以这是一场无情者之间的竞赛。

李开复:我会回答您问的关于中国的情况,我会告诉你我们零一万物在做什么。

我认为许多中国公司都是这样,因为中国人工智能公司一直具备很强大的执行力,而稍弱于诸如通用人工智能等宏伟愿景上。此外,中国公司筹集的资金比美国公司少得多。所以,现实层面没有希望获得更多GPU,无法通过规模定律击败OpenAI。但更有可能的是跟随OpenAI的脚步,提出一些微创新,建立可以适配消费者和企业应用的超快速模型。

所以我认为,在中国,通用人工智能失控的危险较低,至少慢于美国发生的速度。不是因为别的,这主要是出于中国人的务实心态。在没有那么多资金来获取GPU的情况下,先去创建有用的产品。

赫拉利:但当然有一个问题,如果世界上任何地方的某个人实现了通用人工智能的美梦或噩梦,这将影响整个世界。这是一项如此强大的技术。正因如此,它很快就会成为一个政府问题,包括中国在内的其他国家和地区的政府将被激励投入巨大的政府资源在竞赛中坚持下来或赢得竞赛。

还是那样,几乎每天都会有这种说法。他们同意让人类创造出比我们更智能的东西,而我们不知道如何控制。这种想法很糟糕,这种想法很愚蠢,这是在自杀。

与此同时,每个人或者说至少有些人说,我们必须这样做,因为如果我们不做,别人就会做,然后他们就会控制世界。所以,如果我们先做会更好。我们或许能知道如何约束这个东西。整个情况的悖论在于,他们认为自己能够信任自己的人工智能,但却无法信任其他人类。

所以我们面临一个非常矛盾的局面,人类无法相互信任,但他们认为自己能够信任这些超级智能的人工智能。这些外来的智慧,就像外星物种一样。然而他们不知道如何控制它或信任它,认为随着我们开发通用人工智能,我们会找到控制它的方法。

这有点一厢情愿,就像电力的例子一样。人们被电击后,我们设计了一些机械手段来保护他们。但是,当被问及具体会怎样时,他们心中并没有明确的答案。他们设想的机制或技术是什么,能确保超级智能的人工智能与人想法一致并受控?他们无言以对。他们只是说:“我们会找到办法的。”这是极其可怕的。

另一个可怕的事情是,作为一名历史学家,我认为新技术的巨大危险不在于最终结果,而在于实现它的过程。关键在于过程,而非终点。因为当一种强大的新技术出现时,没有人知道如何将其融入社会和政治,也不知道如何明智地使用它。人们会进行实验,而有些实验可能会非常非常糟糕。

如果我们回顾工业革命,就像我去了硅谷,和那里的人谈论人工智能。他们告诉我:“看,当工业革命开始,人们发明了蒸汽机、火车和电报时,许多人担心这将造成巨大损害。但你看,它最终创造了一个更好的世界。”

21世纪初,人们的生活比19世纪初好得多,这是事实。如果我们只看起点和终点,会看到一条直线上升。但在现实中,在历史上,这并不是一条直线,它就像过山车一样充满了可怕的灾难。

因为在19世纪,当第一批国家进行工业化时,首先是英国,然后是法国、美国和日本。他们认为建立工业社会的唯一途径是建立帝国,他们认为要建立工业社会就需要控制原材料和市场,所以必须要有一个帝国。每一个工业国家,从小国比利时到日本再到俄罗斯,都去建立帝国,给全世界数亿人带来了可怕的后果。

后来,人们又有了另一种想法,认为建立工业社会的唯一途径是建立高度集中的管理体制

,如纳粹德国。因为这个论点是合乎逻辑的。他们认为工业的爆炸性力量,如此巨大的创造性和破坏性力量,只能由一个控制生活各个方面的高度集中的管理体制来管理。这导致了纳粹德国的恐怖,导致了世界大战。

现在回过头来看,我们知道这是一个错误,有更好方法来建立工业社会。但实际的历史进程更像是过山车,而不是一条直线。

现在面对人工智能,我们不知道如何建立一个人工智能社会,我们没有历史模型可以参考,即便我们最终能找到方法让人工智能造福人类。我担心的是,人们在这一过程中会不断尝试,或许是建立帝国,或许是建立高度集中的管理体制。即使最终找到了解决方案,这一过程中可能有数亿人会遭受极大的苦难。

李开复:回到人工智能的危险上,我想知道从短期和长期来看,您最担心的是以下哪些问题?

一是使用人工智能对其他人做可怕的事情;二是人工智能并非有意为之,但由于其奖励函数设计不当而造成伤害,它无意中伤害了人们;三是人工智能本身就变成了危险,并且有做坏事的欲望,就像科幻电影一样。

赫拉利:第三种是最不令人担忧的。

李开复:是的,我也同意。

赫拉利:我认为前两个问题非常严重,它们已经是当前的担忧。随着人工智能变得更加强大,这将是一个越来越大的担忧。

最常见的是,如果恶意行为者使用人工智能做坏事怎么办?这很明显,如果恐怖分子利用人工智能制造新的大流行病,这显然是非常危险的。因此,在公共演讲中,我更强调人工智能的第二个危害。不是因为它邪恶或想要接管世界,而是因为它是一种外来的智慧,非常难以控制,可能会产生许多我们没有预料到的不良后果。

我们已经有了一个社交媒体的例子,即社交媒体平台由算法控制。公司给了算法一个特定的目标,即提高用户参与度、增加流量,让人们花更多时间在平台上。

这听起来像是个好目标,这对公司有好处,甚至对人们也有好处。因为参与度听起来像是好事。如果我展示人们感兴趣的内容,让他们在我的平台上花费更多时间,这不是好事吗?但实际情况是,负责社交媒体的算法决定了你在TikTok上看到的下一个视频将是什么,你在Facebook上看到的下一篇帖子将是什么。

它们发现了一种破解人类思维的方法,即如果目标仅仅是吸引人们的注意力。最简单的方法就是按下大脑中的仇恨按钮、愤怒按钮或恐惧按钮。

从进化的角度来看,这些事情会立即抓住人们的注意力。

当我们生活在非洲草原时,你走在草原上,走在森林里,你会看到各种各样的东西。你看到树木、看到云朵、看到各种事物,如果突然出现条蛇,你的全部注意力都会转向那里。因为为了生存,对你可能构成危险的东西是最高优先级。那些让你感到害怕的东西。所以你可以在草原上走几个小时,看到一条蛇,所有的注意力都会集中在那条蛇上。但在社交媒体上,你每时每刻都能看到“蛇”。当你浏览页面动态时,“蛇、蛇、蛇、蛇”,因为我们的程序设定是如果有蛇,所有的注意力都会集中在蛇上。这在非洲草原上是合理的,因为每几天才会遇到一次蛇。

但现在在社交媒体上,算法破解了我们的操作系统,它们发现如果你想让一个人一直不停地滚动屏幕,一直停留在平台上,你需要展示让他们变得害怕、愤怒或贪婪的内容。这对心理健康和社会健康都是毁灭性的。

而且起初公司的任何人都没有意识到算法会这样做。算法本身并不邪恶,它们没有试图伤害人们,它们被赋予了一个目标即让人们在平台上花费更长时间。通过试错,它们发现了如何破解人类思维的方法。但这带来的结果对人类社会非常不利,而且这种情况可能会更大规模地发生。

我们开始时谈到了金融系统中的人工智能,你可以告诉人工智能让它去市场赚钱。你给人工智能一笔启动资金,比如说一百万美元,以及市场的访问权限,只有一个目标,就是赚钱。然后人工智能开始发明新的投资策略,甚至新的金融工具。就像在围棋中一样,它们变得比人类更有创造力。

几年内市场出现了繁荣,有大量新的人工智能创造的金融工具。人类无法理解,也无法监管,因为这超出了人类的能力范围。从数学角度来看,这超出了我们的能力范围。然后有一天,市场出现大崩溃,就像2008年那样。没有任何人理解发生了什么,因为我们已经失去了对金融市场的控制。

你不需要能控制整个世界的人工智能,它们只是在金融市场中活动,就能引发巨大的金融危机。所以我认为我们需要,非常警惕这类危险。从长远来看,人工智能甚至可能开始发展自己的目标。

想想人类是如何发展我们的目标的,我们从哪里获得生活中的目标?有时目标是从上至下的,比如有人给你一个目标。你在一家公司工作,CEO告诉你,这是你的目标。但大多数时候,这些目标是从下至上形成的,人类可以被视为带有非常基础奖励机制的算法,即痛苦和快乐。

我们在生活中经历的一切,最终都只是身体的感觉。如果是快乐的感觉,我们就想要更多;如果是不痛苦的感觉,我们就想要减少,希望这种感觉消失。

从这些微小的心理原子中,整个人类世界被构建起来。如果你思考,为什么人们会参与战争?人们做每件事的原因,归根结底,这一切都是关于痛苦和快乐。如果我们能够在人工智能中设计一个类似于痛苦和快乐的奖励系统,那么其他一切都可以从中构建出来,人工智能甚至可能为了体验这种快乐而发动战争。

现在听起来很荒谬,为什么人工智能会为了体验这种奖励机制而发动战争?但这正是人类在做的事情。归根结底,这些都是人类系统在追求快乐、避免痛苦并进行复杂的计算,认为如果我们要体验快乐、避免痛苦,就必须发动战争。

李开复:是的,我很高兴您提到前两个问题是大问题,因为我非常认同这一点。

我认为很多观众可能会首先假设人工智能的危险来自科幻小说。那种终结者式的危险并不是我们所担心的,从很长远来看,这并非不可能,但我们更关注其他两个问题。

我喜欢你举的所有例子,但我认为最好的例子是社交网络,它离我们每个人都很近。人工智能将在精准定位人们的兴趣和弱点方面,将做得更加出色,这会是您非常担心的事情吗?我想是的。

赫拉利:是的,正如你所说,以前人工智能只是编辑或决定人类创造的内容,所有的视频、文本,都是由人类创造的,人工智能只是决定显示什么内容。下一阶段,人工智能将创造视频、文本、图像,这是史上从未有过的。即使在我们开始对此感到害怕或高兴之前,也要理解变化的巨大程度。

如果人工智能学会了模仿情感和建立虚假关系,也会非常危险,如果人们越来越多地与人工智能而非其他人类建立关系,将带来什么后果?

李开复:是的,我写的书中也有提到,人工智能将迅速进步。在我写书的时候,我没有预料到人工智能在过去两年中会进步得这么快。但我在写作时是希望,无论人工智能进步多快,作为人类,我们有一些内在的特质是不会改变的。

无论人工智能多么擅长模仿我们,像我们一样说话、写作,从根本上说,经过数千年的进化,我们的 DNA要求我们与他人建立联系。所以即使人工智能能够模仿这种联系,尤其是在虚拟世界中时,在现实世界中,我们仍然渴望与人见面、交谈和相爱。我们感受到温暖,虽然我们并不完全理解这种感觉源自我们大脑或心灵的哪个部分,但这对我们来说非常重要。

我曾希望,并且现在仍然希望,这是我们能够坚守的东西之一,是我们能做到而人工智能做不到的。

赫拉利:我认为这极其重要。真正的问题是,我们想从关系中得到什么?如果人们非常以自我为中心,比如我想建立一段关系,只是为了让另一个人满足我的需求,我的物质需求、浪漫需求、社交需求,那么最终人工智能可能比任何人类更能满足我们的需求。

但基于我只想要别人满足我的需求的关系,并不是真正的关系,那是自我中心的,是极端自私的。真正的关系是,我在乎另一个实体,另一个人的感受。

现在,人工智能没有感情,它们可以模仿感情,它们可以理解我的感情,但它们自己没有感情。这里有一个把“智能”与“意识”混为一谈的重大误解,我想我们在之前的讨论中已经提及过。

智能是解决问题和实现目标的能力,比如你的目标是赢得一场围棋比赛,你解决了整个过程的所有难题,最终赢得了比赛,这就是智能。而在某些领域,人工智能比我们更聪明。意识则是感受痛苦、快乐、爱和恨的能力,如果你输了比赛,你会感到悲伤,如果你赢了,你会感到快乐。据我们所知,人工智能没有感情,所以它不会痛苦。

意识实际上可以被认为是承受痛苦和摆脱痛苦的能力。真正的人际关系是关心他人是否痛苦,并帮助他们摆脱痛苦。你无法与人工智能建立这样的关系,至少现在不能。我认为,随着人工智能越来越擅长模仿情感和感觉,未来几年内,将会出现大问题,因为存在强烈的商业动机去创造能够模仿情绪、欺骗人们相信人工智能具有意识、感知和感情的人工智能技术。很多人会相信这一点。

当然,我们知道这是一个非常古老的哲学问题,没有办法证明意识的存在。我知道我有感觉,因为我亲身感受到了,我无法证明世界上其他人是否有感觉,无法证明他们不是行尸走肉,我也无法证明动物是否有感觉,我将无法证明或反驳人工智能是否有感觉,它们将非常擅长模仿感情,那么,我们怎么知道?我们无法知道。

很多人会坚持认为人工智能也有意识,有感情,因此应该在法律和国家层面上,被视为拥有权利的个体。我认为这将成为一个重大的政治问题。

也许一些国家会承认人工智能为拥有权利的个体,而其他国家则会说,“不,它们不是人,没有权利”。那些承认人工智能为个体的国家与不承认的国家之间的政治紧张关系,甚至会比今天围绕人权等问题的紧张关系更加严重。

李开复:我确实希望我们不要过多地将人工智能视为人类,无论是给予公民身份还是其他形式的认可。

一方面,我确实同意你的观点,意识使我们与众不同,尽管它难以衡量,但我们确实创造了人工智能,它在某种程度上是一个黑箱,但肯定没有内置的意识。人性应该更多地定义为意识,而不是智能,因为人工智能显然具有智能。如果仅仅是因为智能,五年后,我们可能不得不给所有人工智能公民身份,这显然是不对的。

我经常思考的另一个问题是,尽管我们讨论了人工智能的危险性,但另一个现实是人工智能变得如此强大,以至于人们将开始失去工作。有些人会彻底失业,有些人的一部分工作会被人工智能取代。乐观的人会认为这是解放自己,去做擅长和喜欢的事情的机会,但悲观的人会认为,人工智能的进步比我快得多,我会被逼到绝境。

所以我希望人们会逐渐意识到,生活不仅仅是为了工作,特别是重复性的工作。然后人工智能可能会成为一个促使人们重新定义自己和寻找人类命运的推动力,但我并没有一个明确的计划来实现这一目标。作为一个历史学家,您是否对我们在短时间内能够实现如此巨大的转变,对这个世界的人性持乐观态度?

赫拉利:有乐观的一面,也有悲观的一面。乐观的一面是,我认为我们会越来越意识到对我们来说重要的不是智能,而是意识。到目前为止,我们是地球上最聪明的生物,所以我们为自己的智能感到自豪,并专注于智能的发展。现在,由于人工智能正在变得比我们更聪明,这迫使我们重新思考人类的本质。

我认为正确的结论是,人工智能会更聪明,但真正重要的是意识。因此,我们应该更多地投资于发展我们的意识。

我个人而言,我每天花两个小时冥想,每年我会进行一次为期30到60天的长时间冥想静修,以探索和发展我的意识,而不是我的智能。我希望人们能以不同的方式更多地投资于此,所以,意识的提升有着巨大的发展空间。如果我们做出这样的投资,我认为我们会很好,让人工智能承担许多工作,如果我们发展我们的意识,世界会变得更好。

我看到的一个大问题是,要自由地发展你的意识、关系和社群等,首先需要你的基本需求得到满足。现在,如果人工智能越来越多地取代工作,谁来提供你的基本需求?

在非常富裕的国家,政府可以对大型人工智能公司征税,并用这笔钱为每个人提供基本服务和收入。但如果你放眼全球,这才是问题所在。落后国家会发生什么?假设美国或中国在人工智能竞赛中领先,即使许多公民失去工作,政府也有巨大的新资源来照顾他们。但在印度尼西亚会发生什么?在尼日利亚会发生什么?在阿根廷等落在了后面的国家会发生什么?我不认为像特朗普这样的领导人会让美国政府从美国征税,然后说,好吧,我现在把这些钱给在尼日利亚失去工作的人民,为他们提供基本服务,这非常不现实。

所以,如果我们能够解决这个问题,我认为通过不断增加对人类意识的投资,我们可以创造一个更好、更美好的世界,即使失去了许多工作,但做到这点将会非常艰难和危险。

李开复:我认为目前,人们对人工智能的强大之处缺乏足够的了解和认识。要得出一个好的结论,人们必须首先理解机会有多大,挑战有多严峻。

其次,我认为我们应该鼓励人们在开发人工智能应用时,考虑到人的因素。人工智能的存在是为了帮助人类,不仅仅是赚钱,也不仅仅是成为一个新的物种,尽管这些事情终将发生。

我还想鼓励进入人工智能领域的人们认真思考,他们能否做一些使人工智能安全的工作,使人类因此变得更好,而不仅仅是思考我如何构建一个更大的模型,我如何使人工智能更智能,我如何打败其他人。

我鼓励那些利用和控制人工智能的企业,花费更多的时间和精力,思考他们的社会责任。因为权力越大,责任越大。现在控制人工智能的人,控制人工智能的公司,基本上对世界,对人类种群,负有最大的责任。

我希望人们能够放下自负和贪婪,至少花部分时间,思考如何为了善的目的使用人工智能,确保人工智能的存在是为了辅助和帮助人们,而不是制造无法解决的问题。

赫拉利:与李博士所说的非常相似,AI是我们迄今为止创造的最重要、最强大的技术,它具有巨大的正面潜力,但也存在巨大的负面潜力。我们仍然有能力决定它的发展方向,但为此,更多的人需要了解正在发生的事情。

如果历史上最重要的决定仅由两三个地方的少数人做出,这并不是好事,这些人并不能真正代表我们的物种。所以我们需要更多的人了解什么是AI,它能做什么,有哪些机会和威胁,并加入这场对话。这就是我写这本书的原因,不是为了预测未来,因为我无法预测未来。我描绘了各种情景,但主要信息是,在所有这些不同的情景下,我们仍然有几年的时间可以掌控局面,我们需要做出明智的决定。如果更多的人能够理解当前的形势,我相信我们将能做出更好的决策、更明智的选择。这是我要传达的主要信息。

我非常希望有更多的人能够参与到这场对话中来,而且,保持对话的全球性,尤为重要,这样美国人、中国人、欧洲人和非洲人都能相互交流。我非常希望能在2025年亲自访问中国,我希望能见到李博士和其他思想领袖,在此之前,我们会继续这场对话。

李开复:很荣幸能再次与您交谈,赫拉利教授,我期待着明年在中国见到您。

赫拉利:非常感谢,李博士,这是一场非常深刻的对话,感谢您分享您的想法和感受。是的,我希望不久后在中国见面。

赞助本站

相关热词: 赫拉利 李开复 智能

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港