10年后回忆2023年,人们该怎么理解ChatGPT出现后的AI涌现?北京智源人工智能研究院院长、北京大学计算机学院教授黄铁军很早就有相关思考。“今天大家对AGI(人工通用智能)和强人工智能太轻描淡写了,绝大多数人没有认真想这个词意味着什么。”黄铁军表示。
9月的珠海暖阳下,第一财经记者见到了前往参加博鳌亚洲论坛国际科技与创新论坛第三届大会的黄铁军。业界人士乐于讨论大模型商用的当下,黄铁军倾向于目光看得更远,并思考更终极的问题。他大约10年前就想明白AGI会出现,且在约2045年可以做出来。他告诉第一财经记者,AGI是全面超越人类智能、有自我意识的超级智能,并非很多人理解的通用型人工智能。AGI要不要做,是需极其慎重的事。而AI对人类的影响和预备性措施,早就应该考虑。
黄铁军的想法代表了一部分学者和业界人士的担忧。今年3月,生命未来研究所(Future of Life)发布了一封《暂停大型人工智能研究》的公开信,呼吁所有AI实验室立即暂停比GPT-4更强大的AI系统的训练,暂停时间至少6个月。马斯克、苹果联合创始人SteveWozniak等知名科技人士签署了公开信。黄铁军也签署了,他认为“这是一种呼吁,至少提醒大家前面有危险”。
黄铁军认为可能存在的危险包括,AI智力超越人类后的决策权问题,以及面对强大的AI时,人可能出现的“躺平”心态。但黄铁军并不反对AI,或者说认为“不可能拦住人群不要往前跑”。他认为,AI水平赶超后或许能解决人类束手无策的复杂问题,比如星际旅行。面对AI,他认为人们要做的最重要的事情或是适应。
智源研究院在科技部与北京市的指导下成立,定位为非盈利科研机构,独立于高校和商业之外,但智源研究院向业界输出的骨干,仍助力奠定国内大模型发展的基矗智源研究院还是国内最早迈上大模型路线的机构,2021年,黄铁军在悟道1.0发布会上称,AI从“大炼模型”逐步迈向“炼大模型”,“大模型”的中文表达就此诞生。
作为国内AI最早的推行者之一,站在学界与业界的交界,黄铁军的见解有一定代表性。他将大模型比喻成“发电厂”,将大模型提供的智力比喻为“电”,并认为全世界可能只需要屈指可数的几个大模型。
“就像法拉第用一个线圈在磁场中旋转,AI也能产生‘电流’了。”黄铁军如此形容大模型出现后的当下。与第一财经记者的对话中,他还谈及大模型如何改变AI公司的商业逻辑、AI产业未来的形态、AI可能抵达的远方和人类与AI共处的未来。
“全世界可能只需几个大模型”
第一财经:国内掀起“百模大战”,这是企业不得不抓住的风口还是应对竞争的被动应对?匆匆入局大模型,您认为业界是否缺乏某些思考?
黄铁军:总的来说是因为大模型在人工智能、信息系统里发挥明显作用,所以各家都会做。长远看,不需要那么多大模型,全球可能只需要屈指可数的几个大模型体系,但这有一个发展过程。就像现在的移动互联网,主要是iOS和安卓两个生态,互联网最初也有很多局域网,发展到一定程度才融合成一个大体系,大模型这种提供智力服务的基础设施将是网络化的。今年上半年,国内出现“百模大战”,现在(新大模型数量)已经回落,长远看还会收敛,这是商业正常现象。
在以云为载体的智力时代,要研究的技术还很多,不是某个公司、某个团队训练出一个模型这种概念。就像电网用了100多年,还在研究如何改进电力技术,最终呈现出“一度电花多少钱”的结果。将来,AI也将变成“一度智力”花多少钱、背后多少成本的问题,这是一个比技术学科还大的领域,需要大学、非盈利机构参与,从各角度改进。就像法拉第用一个线圈在磁场中旋转,产生电流。现在AI也产生“电流”了。从法拉第实验产生电流开始,到今天能随时用电,中间有太多事情要做。
第一财经:语言大模型兴起后,原本细分领域AI公司的工作方式会不会改变?
黄铁军:变化很大,以前AI公司是产品思维,训练一个模型,比如CV(视觉)模型,整合软硬件卖人脸识别服务。就像PC时代和移动互联网时代(的商业模式演变),PC时代是卖PC、卖软件,移动互联网时代则出现iOS、安卓的App,平台开始起关键作用。不过,目前很多大模型还是持产品思维,(厂商)认为大模型可以提升业务(效率)。这还是初级阶段,不是长期状态。
归根结底,大模型能力强意味着很多因素,例如数据尽可能全、尽可能新。而现在做大模型,(厂商)抓一些数据学习后就开始卖,数据少,智力水平不高。大模型要像电厂一样,采用多种手段发电,让大家直接用电,而不是靠卖电机给用户。(大模型)一定是网络化的运营服务产业形态。
大模型现在好像已经很大了,但即便是1万亿参数,也不过是人脑的1%,况且人脑的参数还比大模型的参数复杂,未来大模型参数量肯定比现在大很多。最新数据也要进入大模型体系,这不是随便一个创业公司承担得了的。大模型应该像电力系统,各方做好一端,最后并入电网、供给服务。大模型不同于此前CV等细分领域大模型,最根本是在于它有吸纳一切的能力,它作为载体,能把生产资料和下游用户连成一个体系。
第一财经:大模型如果变成发电厂一般的存在,是否涉及垄断问题?您怎么看“发电厂”和“用电方”的角色分化?如少数厂商做大模型,其他厂商专注应用层。
黄铁军:只要集中在少数几个平台,垄断是肯定的。水电气产业都不是简单的自由竞争,所以要从价格、政策上约束。把大模型比作发电厂的说法是从智源研究院出来的,如此说是因为我们不是企业,而是非盈利机构,我们也不可能垄断大模型。大模型变成“发电厂”有一个演化过程,涉及国家层面、民众本身的决策,非常复杂,如涉及个人数据进入大模型的情况,数据汇聚将有远超商业的问题要处理。超这个方向发展(大模型成为“发电厂”)是从社会效益最大化的角度来说。
第一财经:大模型基础上的应用层生态,您认为会是什么形态?
黄铁军:(大模型)有很多用法,将来的应用有赖于全新的产品出现。讨论比较多的应用包括个人助理,个人助理未来可能跟今天的微信一样,每个人都要用,这是巨大的产品机会。是消费者直接购入机器人还是由机器人公司在背后提供服务,各种产业形态将会探索。如具身智能,机器人自动驾驶也会带来巨大变化,如果汽车智能化比人更强,开车肯定不是今天这个状态,或许不用买车,由运营商提供服务。
“生物智能从来不是唯一答案”
第一财经:深度神经网络构建了目前AI领域的核心,但相对而言,深度神经网络是一个简单的结构,核心要素是数据、算力、算法,模仿的并非真正复杂的人,它能达到真正的智能吗?
黄铁军:能产生智能、说什么样的结构能更好地产生智能、最优的结构是什么,有一个发展过程。以前(的智能)都是人设计算法、由人主导,现在一个系统能从数据里把智能“学”出来,而且还“学”出一些意料之外的智能,这是一次革命,但并非说这个方案最优。深度神经网络或大模型背后的Transformer架构,伟大之处是因为让“这件事发生了”,但往后看5年、10年甚至更长时间,一定会改变,改变可能是颠覆性,也可能是完善性。
从基本的合理性来说,深度神经网络是多层神经网络。“深度”基本上是对的,但要多深还没有理论上的证据。人脑神经网络里,新皮层每个功能柱有6层,层与层、功能柱和功能柱之间有复杂连接,形成层级结构,这个层级结构可能只有几级就到理性思维的层面。(深度神经网络)可能在几十层内对于人类的智能就够了,再多或许强于人的智能。深度神经网络、Transformer都是好的设计,未来结构会越来越好、效率越来越高。
不合理之处是,跟真正的智能相比,现在信号的表达方式距离生物智能都很远。信息信号的表达以及在神经网络中的转换,有太多改进空间。
第一财经:之前学界探索过类脑等其他路径,现在它们还有多少发展空间?
黄铁军:产生智能的结构和机理无穷无尽,但能否认识到是另一回事。一个人突发奇想设计一个完全不同于生物的结构能产生智能,这种可能性是存在的。生物智能从来不是唯一答案。类脑是有一个参照物,可以逼近它,尽管逼近目标很复杂,但这条路的可行性存在。(类脑)路径当然有必要,因为它本来就是发现新结构和机理的道路,尽管现在产业投资关注度相对没那么高,但作为研究方向会继续下去,我相信对人工智能发展也会起作用。
第一财经:深度学习网络的机制我们还不清楚,类似一个黑箱。随着AI进化,人类能够永远去理解、把控AI运作的方式吗?
黄铁军:比人类低的动物智能,我们可能完全理解,到人的水平,理解和不理解都有可能,比我们更复杂的智能肯定理解不了。就像猴子理解人类社会运行的规则,超出了它们思维的空间。一个智能系统的复杂程度或可能性空间有一定范围。如果一个智能系统的空间比你大,你还想理解里面所有机制,是不可能的。
在我们的想象之外,不代表我们做不出这样的智能系统。有太多的东西是人不明白原理但能做出来的,就像古代发明指南针、卤水点豆腐,那时谁知道有机物和盐的相互关系?现在AI(即便是)黑盒子,也是一个可运行的盒子。
“人会丢失越来越多传统工作”
第一财经:很多人担心,自己的职业会不会被AI替代。针对AI对人类的影响,现在有没有必要进行预备性的设计?
黄铁军:早就应该考虑。AI会代替一些人类不想做的事,但随着AI对人类智力的替代,人的控制权可能逐渐被侵蚀。现在社会运行靠人的智力。可能一开始人交出的是一些不那么重要的智力,但真正重要的东西其实都看起来不重要的东西的汇聚。比如一个决策,在公司里,决策是基于很多人的意见形成,但如果人写的报告都由AI替代,实际上决策过程已被渗透,人的影响下降了。从这个意义上讲,我们确实早就应该想一想,人的智力活动被替代之后的影响。
从经济发展的角度,对很多职业而言,只要性价比高,AI肯定会被采用,人会丢失越来越多传统工作。类似的事在历史上经历多次,这次的根本性不同在于,人的能力被逼到最后一个阶段。以前体力不做可以动脑力,现在脑力也(可能)被替换。但人生来也不是为了工作吧?如果不需工作也能生活得很好,这也不是坏事。
根本问题在于,人类原本认为自己是万物之灵长,当地球上最高智力的物种地位被挑战(怎么办)。从现在开始的一段时间,AI远没有人强,但在某些方面比人强,我已有点担心人类可能“躺平”。如果努力学习20年也未必有人工智能做得好,还要不要努力?如果AI真的超过人类,人(就)不可能超越了,就像猴子永远不可能超越人类。(AI)对人类信心的打击已经产生,只是社会效益可能还没反映出来。
第一财经:科学研究或是中性,但可能导向未知的未来,人们对AI发展既期待又恐惧,您作为科研工作者是怎么想的?前段时间,您签署了《暂停巨型人工智能研究》公开信。
黄铁军:没有恐惧也没有期待,应该说,你看着它(AI)往前发展,而作为个体无法改变技术洪流。我们可以思考,比如能不能慢一点。这基本只是一种呼吁,起不了多大作用,但至少也提醒大家前面有危险。不可能拦住人群不要往前跑,这不是我们能决定的,人类社会很多方向的发展都是这样。
2015年,我写文章提到,30年左右,AGI就会实现。我说强人工智能、超级人工智能会出现,当时很多人不屑一顾,实际上我的意思是制造智能可以在30年左右做出来,理解可能得更长时间,甚至永远理解不了。如果它(超越人类智力的AI)做出来了,控制者不是人了,你能做的就是做一定的适应。适应过程可能有冲突,也可能平滑过渡。人类如果不那么(坚持)认为自己是天下的主人,(到时)也过上衣食无忧的生活,至少这是一个选项。
智能本来就在演化,怎么能永远停留在人类现在的水平上?生物进化速度有点慢,现在换了一个载体(AI),进化加速了,可能人类永远解决不了的问题,在新的智能时代得到解决。比如,人类还没走出地球这个舒适圈,新的智能体有可能解决星际旅行问题。现在我们好像在一个安全的摇篮里生活,实际上对宇宙中很多危险没有解决方案。科学家针对复杂的问题还在努力,但或许找不到办法,如果这时更强的智能系统找到办法,我们就往前跨一大步。