划重点
01人工智能有望在5-10年内治愈或预防大多数精神疾病,提高生活质量。
02人工智能发展将推动神经科学领域的进步,包括疾病治疗、心理健康改善和认知功能提升。
03然而,人工智能发展也可能带来挑战,如不平等、财富分配和选择退出问题。
04为此,人工智能公司和政策制定者需共同努力,确保发展中国家受益,实现全球健康、经济和粮食安全目标。
05另一方面,人工智能在改善和平、民主和自由等方面具有潜力,但实现这些目标仍需人类付出巨大努力。
以上内容由腾讯混元大模型生成,仅供参考
Anthropic,OpenAI前研究负责人Dario Amodei 成立的AI公司。
这几天,Dario发表一篇展望AGI对世界影响的长文,提出AI将把一个世纪的科研进展压缩到5-10年。
原文翻译如下:
《仁慈的机器》Machines ofLoving Grace
人工智能如何让世界变得更美好
2024 年 10 月我经常琢磨强人工智能的风险。作为Anthropic的CEO,做了大量关于如何降低这些风险的研究。所以,人们有时会觉得我是个悲观派,或者“末日预言者”,认为人工智能带来的大多是坏处或危险。我完全不这么想。其实,我关注风险的主要原因之一是,只有解决了这些风险,才能迎来我认为的,根本上积极的未来。我觉得大多数人低估了人工智能可能带来的巨大好处,就像大多数人低估了风险可能有多糟糕一样。本文中,我试着描绘一下这种好处可能的样子如果一切顺利,一个拥有强人工智能的世界会是什么样。当然,没人能确切预知未来,强人工智能的影响可能比过去的技术变革更难预测,所以这一切都不可避免地会包含一些猜测。但我至少的目标是做出有根据的、有用的猜测,即使很多细节最终是错的,也能抓住未来发展的大致方向。我之所以写这么多细节,主要是因为我认为具体的设想比高度回避和抽象的描述更有利于推进讨论。不过,首先,我想简单解释一下为什么我和 Anthropic 没有过多谈论强人工智能的益处,以及为什么我们总体上可能会继续更多地谈论风险。具体来说,我做出这个选择是出于以下几个考虑:最大化影响力。人工智能技术的基本发展及其诸多(并非所有)好处似乎是不可避免的(除非风险毁掉一切),而且从根本上是由强大的市场力量驱动的。另一方面,风险不是注定的,我们的行动可以极大地改变风险发生的可能性。避免被认为是宣传。人工智能公司如果成天鼓吹人工智能的好处,可能会让人觉得像是在做宣传,或者像是在试图掩盖它的缺点。我也认为,原则上,花太多时间“王婆卖瓜,自卖自夸”对你的灵魂不好。避免自命不凡。我经常很反感一些人工智能风险领域的公众人物(更不用说人工智能公司领导)谈论后 AGI(通用人工智能)世界的方式,好像他们的使命是像先知引导信徒走向救赎一样,单枪匹马地创造未来。我认为把公司视为单方面塑造世界的力量是危险的,把实际的技术目标用近乎宗教的口吻来描述也是危险的。避免“科幻”色彩。虽然我觉得大多数人低估了强人工智能的优势,但确实讨论过激进人工智能未来的人,通常会用一种过于“科幻”的口吻 (比如,上传意识、太空探索,或者一股赛博朋克风)。我觉得这会导致人们不把这些说法当回事,觉得它们不切实际。说白了,问题不在于这些技术是否可能或大概率会实现(正文会详细讨论这一点)更多的是这种“氛围”暗藏着许多文化包袱和未说明的假设,比如什么样的未来才是好的,各种社会问题会如何发展等等。最终往往会读起来像是一小撮亚文化群体的幻想,而让大多数人感到反感。尽管有以上顾虑,但我真的觉得我们有必要讨论一下,一个拥有强人工智能的美好世界应该是什么样,同时要尽力避免以上那些问题。其实,我觉得拥有一幅真正鼓舞人心的未来图景至关重要,而不仅仅是一个应对危机的方案。强人工智能的很多影响确实具有对抗性或危险性,但归根结底,我们必须有为之奋斗的目标,有一些能让每个人都过得更好的双赢结果,有一些能团结大家,让人们放下争吵,共同应对未来挑战的东西。恐惧是一种动力,但这还不够:我们还需要希望。强人工智能的积极应用清单很长(包括机器人、制造业、能源等等),但我准备重点讨论几个在我看来最有可能直接改善人类生活质量的领域。我最感兴趣的五个方向是:
1.生物学和身体健康
2.神经科学和心理健康
3.经济发展和扶贫
4.和平与治理
5.工作和意义我的预测用大多数标准来看(科幻“奇点”之类的设想除外),都会显得比较激进,但我表达得很认真、很真诚。我说的每一点都可能出错(再说一遍我之前的观点),但我至少尝试用对各个领域发展速度以及实际意义的分析评估作为基矗我很幸运在生物学和神经科学领域都有专业经验,在经济发展领域也算是个比较资深的爱好者,但我肯定还是会犯很多错误。写这篇文章让我意识到,找一帮各领域的专家(生物学、经济学、国际关系等等)一起合作,写一个比我写得更好、更专业的版本会很有价值。最好把我的这篇文章看作是这个团队的初步构思。基本假设和框架为了让整篇文章更准确、更扎实,我们需要明确“强人工智能”(也就是 5-10 年倒计时开始的节点)指的是什么,以及建立一个思考这种人工智能出现后的影响的框架。强人工智能(我不喜欢 AGI这个词)会是什么样子,以及它什么时候(或者是否)会出现,这本身就是一个很大的话题。我之前公开讨论过这个问题,也可以专门写一篇文章(我以后可能会写)。显然,很多人怀疑强人工智能能不能很快造出来,有些人甚至怀疑它能不能造出来。我觉得它最早 2026 年就能出现,当然也可能会晚很多。但就本文而言,我想先把这些问题放一边,假设它很快就会出现,重点讨论它出现之后 5-10 年会发生什么。我还想预设一下这种人工智能系统的样子、它的能力以及它的交互方式,即使在这个问题上存在分歧。我说的强人工智能,是指一种人工智能模型形式上可能类似于现在的大型语言模型(LLM),虽然它可能基于不同的架构,可能包含几个相互作用的模型,训练方式也可能不一样它有以下几个特点:单从智力来看,它在大多数相关领域生物学、编程、数学、工程、写作等等都比诺贝尔奖得主聪明。这意味着它可以证明未解决的数学定理,写出特别优秀的小说,从零开始写复杂的代码,等等。它不只是一个“能跟你聊天的聪明东西”,它还拥有所有人类在虚拟世界工作时能用的“交互方式”,包括文字、音频、视频、鼠标键盘控制,以及上网。它可以进行任何这种交互方式支持的操作、沟通或者远程操控,包括在网上做事,给人下指令或者接受指令,订购材料,指导实验,看视频,制作视频,等等。它完成所有这些任务的水平,都远超世界顶尖的人类。它不只是被动地回答问题;它可以被分配需要几个小时、几天甚至几周才能完成的任务,然后像一个聪明的员工一样独立完成这些任务,需要的时候还会问问题。它没有实体(除了在电脑屏幕上),但它可以通过电脑控制现有的实体工具、机器人或者实验室设备;理论上,它甚至可以给自己设计机器人或设备来用。训练这个模型用的资源,可以用来运行它的数百万个副本(这跟预计到 2027 年的集群规模差不多),这个模型吸收信息和做出行动的速度大概是人类的 10 到 100 倍。不过,它可能会受到物理世界或者它交互的软件的响应速度的限制。人工智能时代,我们应该讨论智能的额外收益,并弄清楚哪些其他因素能跟智能互补,哪些因素会在智能很高的时候成为瓶颈。我们不习惯这么想问题问“更聪明对这个任务有多大帮助,在什么时间尺度上有帮助?”但这似乎才是思考强人工智能世界的好方法。