展会信息港展会大全

Meta首席AI科学家杨立昆:AI危险被夸大 它将接管世界但不会毁灭人类
来源:互联网   发布日期:2023-12-26 08:45:39   浏览:7650次  

导读:划重点 1 杨立昆认为,人工智能会过度传播虚假信息,甚至导致人类灭绝的观点过于悲观。 2 他呼吁开源人工智能,并称这项技术不应该由少数实体公司控制。 3 杨立昆认为OpenAI的初始设想就是错误的,AGI也不会很快出现。 4 杨立昆承认,机器的智力最终会超越人...

划重点

1

杨立昆认为,人工智能会过度传播虚假信息,甚至导致人类灭绝的观点过于悲观。

2

他呼吁开源人工智能,并称这项技术不应该由少数实体公司控制。

3

杨立昆认为OpenAI的初始设想就是错误的,AGI也不会很快出现。

4

杨立昆承认,机器的智力最终会超越人类,但这可能还需要几年甚至几个世纪。

科技新闻讯 据外媒报道,作为现代人工智能领域的领军人物和Meta首席人工智能科学家,杨立昆(Yann LeCun)是这一技术的坚定捍卫者。在他看来,那些总喜欢想象人工智能会带来各种反乌托邦场景的同行们过于悲观了,比如担心人工智能会过度传播虚假信息,甚至导致人类灭绝。

当同被誉为“人工智能教父”的杰弗里辛顿(Geoffrey Hinton)和约书亚本吉奥(Yoshua Bengio)声称人工智能可能带来“大规模社会风险”时,杨立昆选择反对,并在给美国总统乔拜登(Joe Biden)的公开信上签了名,呼吁拥抱开源人工智能,还说人工智能“不应由少数几家实体公司控制”。

Meta首席AI科学家杨立昆:AI危险被夸大 它将接管世界但不会毁灭人类

杨立昆的观点很重要,他被视为人工智能领域的人类守护神。他和辛顿、本吉奥一起开创了深度学习方法,这被认为是提升人工智能水平的关键。他们因此还获得了计算领域的最高荣誉“图灵奖”。2013年,Meta聘请杨立昆担任Facebook人工智能研究实验室(FAIR)的创始主管。

杨立昆还说服了Meta的首席执行官马克扎克伯格(Mark Zuckerberg)分享他们公司的人工智能技术。今年夏天,Meta推出了一个叫Llama 2的开源大语言模型(LLM),跟OpenAI、微软和谷歌的大模型一争高下。但也有批评声音说,这种开源策略可能会让居心不良的人“钻空子”,改代码绕过安全护栏,导致大模型输出种族歧视和其他不当内容。但杨立昆觉得人类有能力应对这种情况。

今年12月初,杨立昆在新奥尔良参加颇具影响力的NeurIPS年度会议时,接受了《连线》杂志编辑史蒂芬列维(Steven Levy)的专访。他们聊了技术开源、通用人工智能、OpenAI“逼宫”闹剧、人工智能监管等话题。杨立昆认为,有关人工智能的危险被夸大了:尽管它们可能接管世界,但不会征服或毁灭人类。

以下为专访全文:

问:你最近表示“机器学习仍然很糟糕”,作为人工智能的先驱,你为什么会这样说?

杨立昆:机器学习已经取得了很大的进步,但要达到人类水平的人工智能,我们还需要解决很多问题。要让机器像人类和动物那样高效地学习,我们还需要探索一些未知的领域,还有很长的路要走。我并不想抨击这些系统,也不想说它们毫无用处,毕竟我的整个职业生涯都在研究它们。但我们必须抑制某些人的过度兴奋,因为并非只靠扩大规模就能让人工智能达到人类水平。绝对不是这样的。

问:你认为指出这些问题是你的责任吗?

杨立昆:是的,我认为我有责任提醒人们人工智能的局限性。虽然人工智能会为世界带来很多好处,但过度夸大其能力可能会引发不必要的恐慌和误解。这是我们在其他彻底改变世界的技术上犯下的错误。以15世纪印刷机的发明为例,虽然它改变了权力结构并引发了宗教冲突,但也带来了启蒙运动。因此,我们需要保持理性和客观,避免过度炒作人工智能。

问:为什么这么多科技界知名人士对人工智能的快速发展敲响了警钟?

杨立昆:有些人可能是因为个人关注或者对技术的天真理解而发出警告。但实际上,人工智能在很多方面已经为人类带来了实实在在的好处:比如帮助减少仇恨言论、错误信息等。在Meta,人工智能系统已经能够提前删除大部分仇恨言论,大大提高了内容监管的效率和准确性。五年前,大约有20%到25%的仇恨言论会被人工智能系统提前删除。去年,这个数字达到了95%。

问:你对聊天机器人有何看法?它们是否强大到足以取代人类的工作?

杨立昆:聊天机器人确实取得了很大的进步,它们能够写出非常流畅、风格各异的文字,甚至在某种程度上增强了人们的创造力。但是,它们仍然存在一些问题,比如可能会产生完全错误的想法或者回答。

问:Meta似乎非常热衷于开发人工智能技术并将其应用到产品中?

杨立昆:Meta正在积极探索人工智能技术的各种可能性,并将其应用到产品中。从长远来看,人工智能系统将会成为我们与数字世界甚至人与人之间交流的重要中介。目前虽然这些技术还不够成熟,但Meta正在努力推动其发展。例如,在WhatsApp上与聊天机器人进行交流,或者在生活中使用各种由人工智能辅助生成的内容和实时翻译等。

问:在Meta的人工智能推广过程中,马克扎克伯格有多投入?

杨立昆:扎克伯格非常投入。今年早些时候,我和他深入讨论过,他对于人工智能的未来充满期待。我告诉他,未来我们与数字世界的所有互动都将由人工智能来调解。ChatGPT等技术的出现,让我们看到人工智能可以更早地应用于新产品中,而公众对这些功能的兴趣也远远超出了我们的预期。因此,扎克伯格决定成立一个专注于生成式人工智能的产品部门,以推动这一领域的发展。

问:为什么Meta决定将Llama代码以开源的方式与其他人共享?

杨立昆:因为我们相信开放的平台能够加速人工智能的发展。当很多人都可以为平台做出贡献时,系统的性能和安全性会得到更好的提升。想象一下,如果未来我们与数字世界的所有互动都由一个人工智能系统来协调,而这个系统被少数几家大型科技公司控制,那将是多么可怕的事情。你肯定不希望那个人工智能系统被美国几家大型科技公司控制。也许美国人不会在意,美国政府也不会在意。但我告诉你,在欧洲,他们不喜欢这样。他们会说:“这些模型处理英语任务相当不错,那么法语、德语、匈牙利语、荷兰语或者其他任务怎么样?你们是怎么训练它的?这又如何反映我们的文化?”

Meta首席AI科学家杨立昆:AI危险被夸大 它将接管世界但不会毁灭人类

问:这似乎是一个让初创公司使用你们的产品并击败竞争对手的好方法。

杨立昆:我们并不是想打败任何人,而是希望推动人工智能技术的发展和应用。我们相信开源是推动技术创新和行业发展的重要途径。当一个平台成为通信结构的重要组成部分时,我们需要一个共同的基础设施来促进合作和发展。

问:OpenAI似乎不同意这一点,你本人也似乎不太喜欢这家公司。

杨立昆:我对OpenAI的看法并不是喜不喜欢的问题,而是基于他们对人工智能发展的理解和实践。首先,我认为OpenAI的初始设想是错误的,他们曾计划创建一个非营利组织来做人工智能研究以平衡行业巨头的影响力。但我认为这是错误的,事实也证明这并不现实。其次,除非你有办法筹集资金,否则你很难进行实质性的人工智能研究。最终,他们不得不创建了一个以营利为目的的部门,并获得了微软的投资。他们基本上已经成了微软的附属研究机构,尽管保持了一定的独立性。最后,OpenAI认为实现通用人工智能(AGI)已经指日可待,并将比任何人都更早开发出它。但我认为,这过于乐观,时间将会证明一切。

问:山姆奥特曼(Sam Altman)被短暂解除了首席执行官职务,然后又在董事会重建的情况下回归,你如何看待OpenAI的这起戏剧性事件?你认为这对研究界或整个行业有何影响?

杨立昆:我认为研究界不用太关心OpenAI了,因为他们既不发表研究论文,也不透露自己在做什么。我以前的一些同事和学生在OpenAI工作,我为他们感到难过,因为该公司依然处于动荡之中。而研究需要非常稳定的环境,当你遇到像这样的戏剧性事件时,人们会对未来充满疑虑。此外,对研究人员来说,另一个重要的方面是保持开放性,而OpenAI实际上已经不再开放了。所以OpenAI在某种意义上已经改变了,他们不再被视为研究社区的贡献者。

问:OpenAI的这次高层变动被看作是人工智能领域“加速主义”的胜利,而加速主义恰恰是末日论的对立面。我知道你不是末日论者,那你是加速论者?

杨立昆:其实,我并不喜欢被归入任何一种思想流派。我倾向于保持审慎,不把任何想法推向极端,因为过于极端的想法很容易让人做出不明智的决定。

问:欧盟最近出台了一套人工智能法规,其中一项内容就是基本上豁免了对开源模型的限制。这对Meta和其他公司会产生什么影响?

杨立昆:这对Meta产生了一定影响,但我们有足够的力量去适应各种监管规定。对于那些没有自有资源的公司来说,从零开始构建人工智能系统会更加困难。他们可以利用开源平台来打造符合自身文化、语言和需求的人工智能系统。未来,我们与数字世界的互动将越来越多地由人工智能系统来协调,我们不希望这种协调权掌握在少数几家加州公司手中。

问:你是否参与了相关的讨论,为监管机构提供了一些建议?

杨立昆:是的,虽然我并没有直接与监管机构接触。我一直在与各国政府进行对话,尤其是法国政府,但也间接与其他国家进行了沟通。基本上,我向他们传递了这样的信息:你们不希望本国公民的数字生活被少数人控制。法国政府很早就接受了这一观点。不过,我并没有直接与欧盟层面的人接触,他们受到了一些末日预言的影响,想要通过监管来防止可能发生的灾难。但这一观点被法国、德国和意大利政府所反驳,他们认为应该为开源平台制定特殊的条款。

问:开源人工智能真的很难控制和监管吗?

杨立昆:其实并非如此。对于那些关乎安全的产品,已经有相关的法规进行监管。比如,如果你要用人工智能来研发新药,已经有法规确保这种产品的安全性。我认为这是十分合理的。现在人们争议的焦点在于,监管人工智能的研发到底有没有意义?我认为这并不会起到太大的作用。

问:难道就不能有人利用大公司发布的复杂开源系统进行改进,然后用它来接管世界吗?通过访问源代码和权重(指用于衡量、调整不同特征和参数相对重要性的数值),恐怖分子或骗子可能会给人工智能系统带来破坏性影响。

杨立昆:他们需要在一个无人察觉的地方部署2000个GPU,这需要大量的资金和人才来完成这项工作。我们可以通过不断进步来保持领先地位,而取得更快进展的方法则是开放研究,让更广泛的社区为研究做出贡献。

Meta首席AI科学家杨立昆:AI危险被夸大 它将接管世界但不会毁灭人类

问:你如何定义通用人工智能(AGI)?

杨立昆:我个人不太喜欢“通用人工智能”这个概念,因为在我看来,并不存在真正的通用智能。智能并非一个单一的、可度量的线性概念,而是涉及到各种不同类型的智能实体和技能。

问:一旦我们成功地让计算机达到人类的智力水平,你认为它们会止步于此吗?或者凭借其深厚的知识、超强的数学能力和更先进的算法,它们会创造出所谓的“超级智能”?

杨立昆:对此我深信不疑。从长远来看,机器的智力最终会超越人类。至于这需要多长时间,可能是几年,也可能是几个世纪,我们不得而知。

问:在那个时刻到来之前,我们是否应该提前做好准备?

杨立昆:当那一天真正到来的时候,我们将会拥有智能助手,就像与一群超级聪明的人一同工作一样。当然,它们并不是真实的人类。有些人可能会对此感到恐慌,但我却对此充满期待。因为与比我更聪明的人一同工作,无疑会提升我的能力。

问:但如果计算机真的变得超级智能,它们为什么还需要我们呢?

杨立昆:仅仅因为人工智能系统很聪明,并不意味着它们就会有统治人类的欲望。事实上,如果我们设计得当,它们不会有这样的动机。

问:但如果出现了意外情况,一个追求某个目标而忽略了人类安全的人工智能系统,就像哲学家尼克博斯特罗姆提出的“回形针假设”那样,那该怎么办?(这个假设是,一个人工智能系统被要求制造尽可能多的回形针,它在最大化生产的过程中可能会毁灭全人类。)

杨立昆:如果我们构建一个人工智能系统而没有设置任何限制和防护措施,那将是非常不负责任的。这就好比制造了一辆超过1000马力的汽车,却没有配备刹车系统。因此,为人工智能系统设定明确的驱动目标并确保其可控性是至关重要的,我称之为“目标驱动型AI”。目前我们尚未有任何相关的实际应用案例。

问:这是你目前的主要研究方向吗?

杨立昆:是的。这个想法的核心是,为人工智能系统设定明确的目标,并确保其行为始终与这些目标保持一致。同时,这些目标中也应包含一些防止危险情况发生的限制条件。这样才能真正确保人工智能系统的安全可控。

问:你认为自己会因为推动人工智能进步而感到后悔吗?

杨立昆:如果我真的会因此而感到后悔,那我可能就不会继续从事当前的工作了。

问:你热爱爵士乐。那么,人工智能能否创造出与人类相媲美的、迄今为止只有人类才能创作的作品吗?它能创作出有灵魂的作品吗?

杨立昆:这个问题很复杂。从某种程度上说,人工智能系统最终将能创作出与人类相似的,甚至可能质量更高的音乐、视觉艺术等作品。然而,人工智能系统无法像人类一样进行即兴创作,因为即兴音乐依赖于人类的情绪和情感交流。至少现在还没有实现。这也是为什么要去现场聆听爵士乐的原因。

问:你还没有回答我的问题,即那种音乐是否有灵魂?

杨立昆:有些音乐完全没有灵魂,它们只是作为餐馆里的背景音乐播放。这些音乐主要由机器生成,以满足市场需求。

问:但我所说的是艺术的巅峰之作。如果我播放一段超越查理帕克(Charlie Parker)最高水平的音乐,并告诉你这是由人工智能生成的,你会觉得被骗了吗?

杨立昆:在某种程度上会。因为音乐不仅仅是一种听觉体验,它还与文化等很多其他因素有关。真实是艺术体验的重要组成部分。

问:如果人工智能系统足够好,能够匹配知名艺术家的成就,而你却不知道背后的故事,那么市场上就会充斥着查理帕克级别的音乐,而我们却无法分辨其中的区别。

杨立昆:我不认为这有什么问题。出于同样的原因,我仍然愿意花300美元购买一个数百年前手工制作的碗,尽管我可以花5美元买到看起来几乎一样的东西。我们仍然会去听我最喜欢的爵士音乐家的现场演奏,尽管他们可能被模仿。但人工智能系统的体验是不一样的。

问:你最近获得了法国总统颁发的“荣誉军团骑士”勋章,你认为人工智能模型有可能赢得这个奖项吗?

杨立昆:短期内不太可能,而且我个人也不认为这是个好主意。(编译/金鹿)

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港