注:这是一篇对AI是否是泡沫的深度讨论文字,摘自以前的一篇付费文章《AI泡沫的思辨和明年光模块的展望》, 如果您已经阅读过那篇文章,就不必看现在这篇文章了,内容基本上一模一样, 区别只是我取消了付费内容,成为了一篇免费文章。
前言
今年已经快过完了,两三个月前,一些同行企业领导人和投资者要求我谈一下明年的光模块市场形势,我都要先反问别人:
AI是不是泡沫?
因为是泡沫和不是泡沫才是明年光模块市场的根本性因素。
一开始我放弃了我自己对AI是不是泡沫的判断,因为我觉得我本人远离AI的应用前线,光模块只是AI系统的硬件之一,我对光模块市场的这点了解远远谈不上我有资格判断AI是不是泡沫。
与此同时,我也试图和很多业内企业领导人、行业媒体以及基金经理和研究员请教他们的看法。
几乎所有的业内企业的领导人,都认为这是泡沫。
基金经理和研究员比较分裂,有人认为是泡沫,有人认为不是。
今年三月份美国银行采访了226位总共管理了5720亿美元基金的基金经理,其中40%认为是泡沫,45%认为不是。
六月底,高盛发表了一篇著名的文章《AI: 太多支出,太少收益》,基本上认定了这是泡沫。
差不多同一时间,著名的红杉资本也发表了一篇文章《AI的6000亿美元问题》,也持和高盛一样的观点。
看了这两篇文章,我突然觉得,虽然我们光模块行业离开AI前线有一定距离,但AI前线还是比透明的,我们可以获得很多信息,信息的丰富程度和AI前线的人差别并不大,至少我们可以有足够的材料讨论一下这个话题。
另外,AI是不是泡沫和我们行业密切相关,如果完全不做判断,很多业内公司做明年市场战略的时候就会进退失据,做出损失重大的决策。
于是我改变主意了。我自己做了个课题,研读了几十篇美国主要媒体和投资公司的文章,这里把他们的观点总结一下搬运过来放在下面,除了一部分说明了是我的看法外,其他都是尽量忠于作者本意。
所以,我只是个观点的搬运工,而且我尽量把两边的观点都搬运全,一个不漏。
虽然我在最后会做出自己的判断,但我没有对自己结论的十足把握,毕竟这事预测未来,谁说有把握都是扯淡,所以我希望读者自己对列出的两边的观点赋予不同的权重来做出自己的判断。如果谁对自己有信心,完全可以不用理会我的判断。
基于”观点搬运工“的本意,我也将大部分参考文章列在本文末尾,如果谁想进行更细的研究和考证,欢迎前往阅读。
文章的后面,我在基于我关于AI的结论的基础上对光模块明年的发货数量和市场决定性因素做个分析和预测,是付费阅读部分,供关注光模块行业的人参考。
对光模块明年的情况想深度了解的还可以参加这个周日晚上的《2025光模块市场分析》的研讨会,报名信息在本文最后。
什么是泡沫
谈AI是不是泡沫,先要对泡沫有个明确定义,否则就没法说了。
2000年左右的Dot/COM泡沫(国内多称之为互联网泡沫)是没有争议的泡沫。
当时的泡沫主要是这么几个表现:
股市层面:股价暴跌
2000年泡沫破裂的时候,纳斯达克从4000多的高点跌到了800多点,我的雇主JDSU(Lumentum的前身)股票暴跌98.5%,从300多跌到3.6(分股后1.8),市值从2000多亿变成20几亿。
泡沫起来的时候大量投资资金流入,很多不能盈利或者销售额很低的公司在股市获得很高的市值。
企业层面:订单暴涨暴跌
泡沫时候,相关企业订单暴涨,像我们产线2000年的时候,订单暴涨十倍。
泡沫破裂的时候,我们的订单全部被取消,公司两年裁员12轮,工厂从3400人裁为零。
泡沫破裂的时候,行业内除了上市企业,其他企业大量破产,少数没有破产的也是非常煎熬。
社会层面:大量失业、百业凋零
企业大量裁员,导致很多人失业在家或者转换工作,旧金山硅谷湾区也从净人口流入地区变成流出地区,因泡沫带动起来的房价转头向下
相关的产业,如租房、汽车、餐饮、奢侈品销售、教培都在向下,社会全面进入萧条期。
所以,只是股价大幅下跌(比如两三成到五成),没有七八成的跌幅,我们不能认定为泡沫。我们还要看其他经济层面相关实业是不是也凋零了。如果经济层面的突变,比如AI建设突然停止、企业大量裁员,那结合股价暴跌才能算作为泡沫。如果只是股价大跌而没有经济层面的改变,那我当成这是投资者的获利回吐,不当成泡沫破裂。
红杉资本报告的观点
AI的可能的应用前景我就不列举了,我们过去几个月耳朵都管灌出老茧了。
各种媒体已经把AI的前景吹了个遍,毋庸置疑,AI是人类的一次重大的技术进步,其重大程度可能比我们光通讯的还大。
我们就先汇总一下高盛和红杉的报告,两份明显不看好AI的报告。因为红杉的报告发布的日期发布于6月20日,早于高盛几天,我们就从他们的报告说起。
红杉的报告题目是《AI的6000亿美元问题》,作者是红杉资本的合伙人David Cahn。
Cahn有多篇关于AI泡沫的文章,把他几篇文章合起来(文章链接都在本文末尾),其核心观点是:
在AI现在的实际收入与比我们预期的低很多很多,与我们投入的6000亿美元相比,收支相抵至少有5000亿美元的差额,也就是说收入太低,花钱太多,投资收回遥遥无期。
目前有个流行的 ”AI是基础设施“的说法:“买GPU就如同修铁路。这些基础设施虽然不赚钱,但它长期将带来绵长的衍生价值,AI一样,所以AI不能看短期几年的回报。”
Cahn对此完全不同意。
他认为GPU和铁路光纤等基础设施有重大区别,导致其真正的ROI(投入产出回报)会很低。
这些区别是:
一、大部分基础设施都是排他的、半垄断的,如高速公路、铁路和电力网络,独一无二,垄断意味着定价权,意味着高利润的保障,而GPU算力不行,GPU算力和航空公司类似,钱投了不少,却不是垄断地位。
二、一般基础设施折旧很慢,用个三五十年没有问题,可以持续发挥作用,从而回报时间很长,而GPU只能用三四年。
GPU恐怕是人类有史以来贬值最快的基础建设设施。
另一方面,英伟达认为在未来十年内,他们在处理人工智能方面的效率将提高100万倍。这是在相同的芯片基础设施上,现在为训练而构建的基础设施也是我们将用于推理的相同基础设施。所以当世界从训练转向推理时,它将是可替的,不必为推理构建一个全新的基础设施,所以后面基础设施的建设会停滞。
Cahn强调:“我们这里存在的是一个泡沫:人工智能的成本(在芯片、数据中心、能源等方面)巨大,而虽然收入开始增长,但距离收支平衡还很远,问题在于价值创造。考虑到大型语言模型充其量是不可靠的(同时可能危及数据安全),使用它们的价值至少是不稳定的。现在消费者每月为 Netflix (网飞,美国知名的在线电影网站)支付 15 美元获得的显著价值,并表示“从长远来看,人工智能公司需要为消费者提供显著价值,才能让他们继续掏腰包。”
所以AI的投资回报率会很惨,最后赚钱的是”卖铲子“的英伟达,而一旦AI不能赚钱,英伟达的业绩也不可持续。
高盛报告的观点
高盛的报告《AI: 太多支出,太少收益》发布在6月25日,是高盛几个研究员合作的,他们的报告其实并没有明确展示自己的结论,只是借用了访谈嘉宾的观点。
高盛几个嘉宾的观点分别如下:
MIT教授Daron Acemoglu 说在未来十年内,AI将影响不到所有任务的 5%(也就是绝大部分人类的工作用不上AI)并得出结论,在未来十年内,AI只会使美国的生产率提高 0.5%,国内生产总值增长 0.9%,这点增长相对于等于4%GDP的万亿美元的投资,不划算。
高盛股票研究主管吉姆科维洛(Jim Covello)同样悲观。他认为,花费在AI上的 1 万亿美元只是用来取代一些低工资的办公室员工的职位,成本非常高,并且AI无法真正实现复杂任务,这样的新科技让人感到奇怪。因为过去的新科技往往都是在一开始的成本就在可接受范围,而不像AI高的那么离谱。
并且过去的高科技往往带来一种完全颠覆性的、人工或者旧技术完全没法比拟先进性,比如铁路、汽车、飞机、手机等等,而人工智能只是提升了一些低端工作的效率而已,而且用一种超级昂贵的方式在提升。
其他很多新技术,如互联网、手机、核磁共振,最终能够实现的功能的路线图在其诞生之初就已经存在。但AI目前还没有类似的路线图。人工智能看涨者似乎只是“相信”,随着技术的发展,用例将会激增。但在生成式人工智能引入世界十八个月后,还没有找到一种真正具有变革性的APP,更不用说具有成本效益的APP了。
有人说,现在GPU的单位算力的价格也在快速下跌,所以开始高点也无所谓,以后低了会有盈利性的APP。
针对这点,Jim驳斥说:”铲子“的价格在迅速下降,但因为起点实在太高,现在的降价速度还是太慢。科技界对于人工智能成本将随着时间大幅下降的假设过于自信,因为英伟达没有像Intel的AMD那样的竞争对手,台积电更没有像样的对手,所以必然下降速度是由他们决定的,而他们必然不要让价格快速下跌。“
他还怀疑人工智能是否会提高使用该技术的公司的效率,因为AI导致的效率提升方法很容易传播。
AI可能和搜索引擎/Email/微信一样,是每个人都能接触到的技术, 一旦大家都用了,使用者的优势都没有了,虽然每个人都获得了效率提升,但大家都赚不到钱。(和我们光模块的内卷一样)
而且在他看来,真正增加收入的途径尚不清楚。他严重怀疑根据历史数据训练的模型是否能够复制人类最有价值的能力:创新。
他还说:“没有创新就过度建设世界不需要的或尚未准备好接受的东西,通常会导致糟糕的结果。”
这是句狠话,几乎就是暗指这波AI是伪需求。
Jim重复了泡沫破裂论最有力的观点:
美国“Mag 7“ (中文:股市七姐妹”, 指7个主要的高科技公司)在搞GPU军备竞赛都是基于一个非理智的理由:
FOMO(Fear of Missing-Out)(对错过的恐惧)。
AI是目之所及的时代性技术,谁夺得先机就意味着谁将掌握下一场游戏的规则。对于七巨头来说,无论是否未来是不是泡沫,做出的决定都是一样的。
因为这并不取决于你是否愿意辨别眼前是泡沫还是机遇,而取决于你能否在这场竞赛中生存下来。
如果是泡沫,投入的钱打了水漂,他们承受得起,但如果不是泡沫,错过了一个时代,他们承受不起。
所以,泡沫不泡沫不重要,他们只能投,并且要比别人早,因为大家只相信全世界只需要几个大模型就够了,不占住前几位就意味着出局。
对股市七姐妹而言,投资不足的风险远远大于投资过度的风险。
高盛的报告还报道了前微软能源副总裁Brian Janous的观点,他认为美国失去了建设大型基础设施项目的能力,现在公共电网无法承担足够的电力供应。发电厂和电网建设的长周期必将严重拖慢AI中心的建设。
不过,高盛的报告并不是一边倒的展示一边观点,他们也展示了他们同事的一些相反观点。
高盛全球经济学家Joseph Briggs很乐观。
他估计,未来十年,新一代人工智能最终将使所有工作任务的 25% 实现 自动化,并使美国的生产率提高 9%,GDP 增长累计 6.1%(比MIT教授Daron的估计高多了,他们的计算差异这里就不说了),所以万亿美元的投入是有足够回报的。
虽然Joseph承认,如今许多人工智能任务并不具有成本效益(这点和Daron一样),但他认为, 从长远来看,成本节约的巨大潜力以及成本下降的可能性(就像新技术经常出现的情况一样),最终应该会带来更多的人工智能自动化,从而提高效率。
Kash Rangan和Eric Sheridan是高盛的高级股票研究分析师,分别负责美国软件和互联网领域。他们认为,虽然人工智能仍然是一项正在进行的工作,但投入的大量资金最终应该会得到回报。
他们的主要理由是:
一、每个科技周期都遵循称为“IPA ”的进程:基础设施(Infrastructure)先行,平台(Platforms )其次,应用程序(Applications)最后 。
人工智能周期目前仍处于基础设施建设阶段,因此找到杀手级应用程序将需要更多时间,但相信我们会实现这一目标。
二、由于拥有训练和运行人工智能模型所需的巨大计算能力,云计算公司也表现良好,微软、Alphabet和亚马逊三大超大规模企业季度收入一直在增长并且有加速的趋势。
三、和过去的泡沫不同,这次的投资非常谨慎和克制。 "从绝对美元金额来看,当前的支出肯定很高“, Kash说,“但这次的资本支出周期似乎比之前的资本支出周期更有前景,因为是现有企业(而非新创企业和风险资本)在引领,这降低了技术无法成为主流的风险。“
以上是高盛报告的内容,虽然列出了两边的观点,但很明显,泡沫论的观点有更多的数据支持。
这里补充一下,高盛好像是个很会双手互博的周伯通。
去年9月份他们才发表了一篇非泡沫论的文章《Why AI stocks arens't in a bubble》(《为什么AI股票不是泡沫》),甚至今年8月初还出了另外一份题为《Will the $1 trillion of generative AI investment pay off?》(一万亿的AI投资是否会得到回报?)》来支持AI的非泡沫论,这才一个月他们就出了新报告,并且这次的报告本身又在里面直接放了两种对立观点,让读者自辨。
背景知识:美国电力和电力投资问题
前微软能源副总裁Brian Janous的关于美国电力短缺的观点其实只是个结论,没有详细的计算,这里我给大家算算。
一个H100的十万卡集群需要15万千瓦的电力配套设施支持运行,这包括机房照明、空调散热。 如果我们再加上为供电线路损耗、变电站损耗和备用电力储备等线路上的损耗,我们大概算到25万千瓦。
那么,我们把去年、今年和预估明年英伟达、AMD和Google生产全部GPU/TPU加起来,大概是等效为1400万个H100(去年250万、今年450万、假设明年700万---含Blackwell等效的)。
那为这些GPU配套的电力装机容量是3500万千瓦。
很多人对电力装机容量没有概念,我作为个水电工作者的子女,给大家做个进一步解释。
装机容量是发电站可以发出的最大电力功率。世界上最大的水电站三峡的装机容量是2200万,第二大水电站白鹤滩1600万。上海峰值电力负荷是4000万千瓦,美国全国装机容量12亿千瓦,中国29亿千瓦。
这配套的3500万的装机容量大致相当于一个上海,又相当于美国全国电网的3%。
貌似3%并不多,但数据中心是7x24小时运行的,而发电厂是有稼动率的,不能7x24小时工作。
比如白鹤滩水电站如果不停地工作一年应该发电1400亿度电,但实际一年发电600多亿度,稼动率40%多点。
美国电网平均稼动率是40%。美国天然气是发电主力,稼动率比其他能源稍高,那我们按50%算。
所以这1400万个GPU需要的装机容量是7000万千瓦,约相当于美国总装机容量的6%。
那建设这么多发电站需要多少投资呢?
根据美国能源信息署(EIA)的统计,美国境内平均每增加1千瓦的装机容量,核电需要投资7000美元,火电和天然气需要4000美元,太阳能需要800美元。
几种方式投资额看上去差距很大,但太阳能晚上不发电、阴天发电少、还需要大量土地,年发电量只有其他几种方式的几分之一,所以为数据中心配套的太阳能发电站至少要增加4~6倍的装机容量才行到,考虑到还有更多的土地成本,最后太阳能的成本和火电其实相当,我们大概按4000多美元/千瓦算吧。
这么一看AI数据中心需要的7000万千瓦的装机容量还需要约3000亿美元的投资。
这还是假设建设了便宜的天然气发电站,而不是单千瓦需要投资7000美元的核电站。如果使用核电,那基本上是云厂投1块钱到AI,电厂也要投入1块钱到电网和发电站。
所以,到明年底AI硬件投资外(这部分大概5000亿美元-高盛报告上数据),美国还需要投入另外3000亿美元的电力设备支撑,这么说来,建设1400个万卡总共需要Capex 8000亿美元,照目前速度,到后年,这个数字变成1.6万亿。
美国的GDP是多少呢?去年是28万亿!
1.6万亿差不多是美国GDP的6%(考虑到美国的GDP还在增长)。
美国这个世界第一军事强国的军费多少呢?
916亿(2023年数字), 只占GDP3.3%!
所以AI的投入几乎等于美国今明后三年要从GDP里拿出将近2倍的军费。
军费的投入一般不对社会直接产生价值,如果AI也基本不产生,那美国就总共有将近10%的GDP的无效投入,这是个很恐怖的数字,超过美国全社会所能投入的极限。
经济学上有个一般的共识:如果一个国家的军费开支到了GDP的10%,那要么是短期行为,要么经济会崩溃。
显然美国人不会因为搞AI把自己给搞残了,所以AI如何持续?
再想远点,还有两个更要命的问题:
一、这个Capex数字还在以每年30%的增长,照这个速度,到2030年的时候,Capex是美国GDP的19%,显然是不可想象的。
二、2030年AI的配套装机容量将达到美国总装机容量的四分之一,而以美国现在建设电站的速度,即使有足够的钱,以目前的建设速度也需要好几年才能扩容去满足明年底就需要的7000万千瓦,2030年需要的电力设施如果不采取加快措施,要2040年才能建好。
所以前微软能源副总裁说的非常符合现实情况,哪怕有钱投资,电网一定会是制约因素。
训练用的数据不够了
除了两报告指出的AI的问题之外,还有其他一些认定AI是泡沫的文章。
Media Relations and Public Relations company 的CEO,Edward Zitron,一个非常知名的计算机杂志前记者,曾经写过一篇很有名的文章《The Man Who Killed Google Search》,他就严厉谴责AI的投资。
他的文章充满着情绪化、却是非常有力的话语。比如,
“GPT是完全根据训练数据以概率方式生成答案(比如生成的下一部分最有可能是正确的),对人类的进步能有多少作用?”
“当大多数模型都在相同的训练数据上进行训练并且已经用完这些数据时,它们如何区分好坏对错?”
“训练数据危机是一个没有得到足够关注的问题,但它足够严重,有可能在不久的将来停止(或大幅减缓)任何人工智能的发展。”
这里他提到了另外一个大众所忽略的问题:LLM训练用的数据可能不够了。
虽然人类在最近几十年产生了爆炸性的知识,但在生成式大模型的海量、指数级的需求面前,可能很快不够了,这将和算力一样,限制其增长。
有专家推测,照ChatGPT前几代的发展速度,到ChatGPT-7的时候,单它一家公司就需要两个三峡电站(50%的稼动率)的发电量来支持, 并且要消耗掉今天地球上所有计算机的算力以及人类所有的知识和数据。
细思极恐啊。
所以,我们原先以为的算力是AI唯一的制约因素并不完全正确,现在看来,电力、数据和算力都是制约因素。
大模型和生成式人工智能的局限
Edward Zitron还和很多高人有一个相同的观点:生成式人工智不能产生通用人工智能,而不能产生通用人工智能,生成式人工智能的作用很局限。
Edward Zitron批评高盛报告里的高级经济学家Briggs不断混淆通用人工智能和生成式人工智能,而且还在很恶劣地暗示“最近的生成式人工智能进展会带出超级人工智能的出现。”
”生成式人工智能没有创造新的工作,没有创造新的工作方式,也没有为任何人赚钱而且增加收入的途径也不清楚。“
”就业市场不会因为生成式人工智能而改变,因为生成式人工智能实际上做不了很多工作,它能做的少数几件事也表现平平。虽然它是一个有用的效率工具,但这种效率基于极其昂贵的投资."
"生成式人工智能不是未来,而是对过去的重复,是一种有用但并非开创性的方法,能从旧数据快速生成“新”数据,但成本过高,以至于投入不值得。"
"生成式人工智能无利可图、不可持续,而且由于它是基于概率生成答案,其能力从根本上受到限制。"
“生成式人工智能最多在基于数据进行训练时处理信息,但它绝不会“学习”或“理解”,因为它所做的一切都是基于摄取训练数据,并基于数学意义或概率生成答案,而非对材料本身有任何理解。”
“大型语言模型(LLM)与我们想要的“人工智能”在技术上完全不同,令人不耻的是,现在这个行业居然用如此明显的谎言获取了如此多的资金和关注。”
"对于OpenAI 和 Anthropic 来说,确实没有盈利途径只有一条路,那就是继续投入数十亿美元,希望能发现一些真正具有创新性或代表未来的东西---这是一种绝望的**,而不是对生成式人工智能进行进一步的迭代,生成式人工智能充其量只是一种需要大量Capex的处理数据的新方法。"
他说的是有一定道理的。
谷歌的人工智能研究员弗朗索瓦肖莱(Francois Chollet)最近也认为 LLM 无法导致 AGI,详细解释说像 GPT 这样的模型根本不具备使人类大脑工作的那种推理和理论化能力。
肖莱还指出,即使是专门为完成抽象和推理语料库(人工智能技能和真正“智能”的基准测试)的任务而构建的模型也只是因为它们被输入了数以百万计的人们解决测试的数据点,这有点像根据人们努力学习完成智商测试来衡量某人的智商,只是更愚蠢。
发表在《计算机视觉与模式识别》杂志上的一篇论文所也说到:
”为了实现模型性能的线性改进,人们需要呈指数级增长的大量数据。这种情况意味着我们只能在指数还比较小的时候才能应付,比如回答提问、写篇短文、做个几分钟的短视频,这没有问题,但如果要写个五十万字的长篇小说、做个两小时的电影,就需要宇宙级天量的算力和数据。“
或者换句话说,”每前进一步都变得越来越(呈指数级)昂贵。”这意味着高昂的财务成本不仅在于获取算力,还在于被算力所处理的数据。“
这意味着这种“大力出奇迹”的模式的远期前景是暗淡的。
成都一位让我非常佩服的人工智能大神(公众号:吃果冻不吐果冻皮)的评论我觉得比美国的专家评论更让国人容易理解,而且更犀利,我就多摘录几句他的原话:
“我很早以前就察觉,当下基于qkv attention + next token prediction + scaling的路径几乎已经快走到了尽头,并不是说scaling不能继续发挥作用,而是说scaling带来的收益已经远超出对其的投入。”
“我的一个暴论是,Scaling会导致大模型更加地像大模型“丰富且平庸”。虽然反过来讲,丰富且平庸的回答并非毫无意义,因为它至少可以被用来做为创作的原材料。但是,于智能本身而言,这种性质毫无意义,更不要提草台班子们打着要做智能的旗号最后只做出了一堆丰富且平庸的产品。”
这位大神还说:
“虽然模型拥有庞大的上下文能力,这对于搜索和总结场景非常有用,但在推理场景中,我们不应期望现有的技术方案能够实现长上下文的复杂推理, 比如精确的数学计算。”
“我们把信息压缩被视为智能的一种表现,但人类最高度的智能,如物理理论,并非通过压缩而来。压缩是一种归纳方法,假如我们将各种物体自由落体的视频交给大模型进行归纳,可能会得出轻物体下落慢、重物体下落快的结论,或者归纳出数百种物质的下落模型。显然这种归是无法得出正确的物理结论的。尽管压缩可以体现一些智能,但最高度的压缩来自于推理、假设和实验。”
这位大神的结论是:
“LLM是个坑,如果给“坑”这个描述做一个明确定义,那么大致可以讲成“同质化、模式化、低效率、低创新”的竞争系统。对一般公众而言,其有着仿佛大型强子对撞机探索宇宙基本原理一般的隔阂感,然而大语言模型本身又具有极强的人文性,类似于经济学,这便又给了草台班子极大的错误许可。”
而Edward Zitrond的文章最后总结道:“大模型如果最后证明对人类帮助不大,这意味着我们今天投入的万亿美元可能变成一种“可耻的浪费”。”
不过,反驳的声音也存在。
一位国内算法专家如是说:
”目前看大语言模型的指数般的投入是存在天花板,但是,它的效率也是可以提高的。现在的算法很傻笨,像个勤奋的阿甘,但人类可以把它做的聪明。上海交大的Power Infer-2就是这方面的尝试。“
”另外数据也是可以优化后再喂进大模型的,外加GPU的效率提升(黄仁勋就预测几年内提升一万倍),三个因素相乘,大模型的效率在几年内的提升速度会远超现在人们的想象。“
另外,现在的数据中心硬件体系是存在极大的优化空间的,我一个朋友就在美国做这个事情。(顺便提一下,他们在融资,有兴趣的可以发信息到后台,注明“AI硬件优化融资”。)
还有一种说法,在语言数据已经消耗光的时候,LLM并不一定坐以待毙,人类可以制造新的概念和拓展语言系统,这就像近代英国哲学家维特根斯坦所说的“不可说”的部分。我们可以超越现有的语言系统,创造新的语言,以表达那些之前被认为是“不可说”的内容,从而拓展LLM的能力,就好比人类只有几十个词语来描述颜色,但自然界中的颜色是连续光谱,可以是成千上万种,或许我们可以创造新的喂给AI的语言,只不过现在还不知道如何创造。
以上也可以看出,诟病生成式人工智能的同时,人们都公认通用人工智能(AGI,就是像人一样具备推理和创造能力的人工智能)一定能够大幅度帮助人类,但它何时诞生,并且在诞生前生成式人工智能(AIGC)会有多大帮助、有没有合理的投入产出比,将是整个争议的焦点。
背景知识:LLM和AIGC和AGI的区别
为了方便大家理解,尤其是对AI的构架、原理和用途不太熟悉的朋友,我补充一些背景知识以便更好地理解他们的观点,对AI和大模型比较了解的人可以忽略这一节。
虽然我们经常把LLM(大语言模型)、AIGC (人工智能生成内容,Artificial Intelligence Generated Content)和我们人工通用智能(AGI,Artificial General Intelligence)三者放一起说,因为他们都是人工智能,但他们的区别很大。
大语言模型(Large Language Model, LLM)是一种以实现通用语言生成和其他自然语言处理任务(例如分类)的能力而闻名的语言模型,简单地说,这是一种”语言“方面的人工智能,我们也可以简单地理解为这是个”编剧“。
AIGC 是人工智能生成内容(Artificial Intelligence Generated Content)的缩写,指的是通过机器学习等技术生成文本、图像、音频、视频等内容的技术范畴,我们可以理解为一个”导演“。
LLM最根本还是一个生成式的语言模型,其本质是通过统计建模在大量文本上进行训练,学习文本之间的语言学相关关系,从而根据上个词汇预测下个词汇。
LLM在解决问题的过程中并不透明,对于其给出的答案的可靠性我们并无从考证,所以错误发生完全可能。
看得出,LLM只是AIGC的一种,专攻语言。
AIGC就是现在所说的生成式人工智能,它不能做创新性的工作,比如要想出个牛顿万有引力定律---用多少个苹果砸都不行。
因为本质上它是个文字(或者语音和视频)的概率机器,曾经出现的高概率的语言文字会被它优先考虑,而创新这些事情,历史上就根本没有出现过,所以概率为零,自然也不可能被AIGC搜到。
同理,既然是概率工作,AIGC不能做精准计算性工作,比如设计个大桥。AIGC连1.11和1.08谁大谁小都能搞错,它设计的桥你敢走吗?
AIGC能够在一些模糊性结果的工作上做的更快,比如写文章、做广告、画图,但谈不上准确性。
而AGI(通用人工智能)(Artificial General Intelligence),能够在广泛的认知任务上表现得与人类一样好,甚至更好。它与AIGC不同,AIGC只能做特定任务,而AGI则更适应通用任务,是一种强人工智能。
简单来说,大语言模型和生成式人工智能的暗箱作业及有限的持续学习能力是其最大的短板,所以它还远不是AGI的一个最终解决方案,甚至不是AGI的初级阶段。
我们所期待的AGI是一个以足以媲美人类的认知能力来解决任何任务的自主智能体,完全可以覆盖或者超越人类的人工智能。
所以,OpenAI推出了o1,就是为了反击“大模型不能思考”的说法,目的是把自己打扮成一个”理工男“,而不是个编剧或者导演,从而补上GPT被人诟病的不足。
Scaling Law即将撞到天花板
这几天,另外哈佛大学和斯坦福大学联合的一篇论文也引起了很多人的讨论。这篇论文的名字叫《Scaling Laws for Precision》,它讨论了一个和大语言模型使用数据精度有关的扩展定律。
它的结论是:
由于当代大模型在大量数据上经历了过度训练,因此训练后量化已变得非常困难。因此,如果在训练后量化,最终更多的预训练数据可能会造成副作用;
在预训练期间以不同的精度放置权重、激活或注意力的效果是一致且可预测的,并且拟合扩展定律表明,高精度(BF16)和下一代精度(FP4)的预训练可能都是次优的设计选择。
这样,未来的解决方案是:
扩大数据中心规模:未来约 2 年这仍然是可以做到的事;
通过动态扩展:路由到更小的专门模型或大 / 小模型上;
知识的提炼:这条路线与其他技术不同,并且可能具有不同的特性
CMU(卡内基梅隆大学-世界上计算机专业最强的高校之一)的教授 Tim Dettmers 感叹道:“从我自己的经验(大量失败的研究)来看,效率是无法欺骗的。如果量化失败,那么稀疏化也会失败,其他效率机制也会失败。如果这是真的,那么我们现在就已经接近最优了。”
Tim Dettmers 还表示:“可以说,人工智能的大部分进步都来自计算能力的提升,而(在最近)这主要依赖于低精度路线的加速(32- > 16 - > 8 位)。现在看来,这一趋势即将结束。再加上摩尔定律的物理限制,大模型的大规模扩展可以说要到头了。”“例如,英伟达最新的 AI 计算卡 Blackwell 将拥有出色的 8 位能力,并在硬件层面实现逐块量化。这将使 8 位训练变得像从 FP16 切换到 BF16 一样简单。然而,正如我们从新论文中看到的那样,对于很多大模型的训练来说,8 位是不够的。”这和“吃果冻不吐果冻皮”的大神的一个观点类似,他说:
“在日常使用GPT-4的过程中,我发现其在许多场景下的输出已经非常接近完美。这里的“完美”并不意味着通用人工智能(AGI)已经实现,而是在现有系统形态,对话界面+输入有限的信息,模型基于有限的信息给出回复,已经接近有限信息理论上应该有的回复。”
H100出现过剩
最近H100的零星租赁价格跌破了2美元一小时。
一位业内的行家发表了一篇文章,标题是:《2美元H100: GPU泡沫是如何破灭的》。
作者根据现实AI界的一系列数字,对H100GPU的投资回报计算,强烈暗示了GPU泡沫将破裂, 因为市场上才出来一年多的H100已经供大于求了。
这是事实,但也有很多人出文章声讨他的说法,几个典型的反驳理由是:
一、H100的过剩并不是整个算力的过剩,它只是“落后”GPU的过剩,好比新一代iPhone出来后老一代iPhone的过剩,其实不是智能手机的过剩。
二、 GPU和英伟达取决于巨头Capex的基本逻辑没有变化。虽然2季报微软、Meta已经基本承认算力阶段性投入过剩,但是“投入不足的风险远高于投入过剩的风险”让对于基础设施的CapEx依旧高涨。所以GPU的“泡沫”在基础设施投入阶段,更多取决于CapEx是否下修,而非租赁价格是否下降。(类似于国内的购房价格和租房价格并非一致行动)
三、算力租赁价格崩盘,是因为巨头都在自建算力,租赁服务只有小客户在使用,而且还有大量的小客户想用还用不起......否则价格就不用崩盘了,这还是局部的坍塌,并非整体的坍塌。
四、因为大模型预训练需求越来越集中,更高的集群意味着更高的效率,现在看来,万卡集群是最低的竞争门槛,大家都挤上去跑大模型,而不足万的小集群,也就是那些进行租赁市场的小集群卡,又没有足够的大模型在上面跑,所以出现了租赁价格的下跌。
这就是目前业内经常说的 “小集群太多,大模型太少”。
但是,也有人再反驳说:
“算力的局部过剩,实际上还是因为太贵,或者不够好用,导致没多少客户愿意用,没有激发出真正的需求,就出现需求大于供给,这样AI和算力就是泡沫,无论你怎么解释为局部或者整体---局部的坍塌也会蔓延到整体。”
AI大佬Ilya给的出路前两天,原Open AI创始人、人工智能大佬在正在温哥华举行的深度学习顶会 Neural PS2024上发表了一个演讲, 直接断言当下大模型的核心“预训练”机制即将走到终结。
根本原因还是前面说的数据不够了,这已经是业内公知了。
问题是,他有什么想法可以突破这个局吗?
他猜测了几个突破方向,也是业内很多人猜测的方向:
使用代理 (Agents)
使用合成数据
从生物学中汲取灵感
虽然Ilya指明了这三个方向,但这三个方向基本等于什么都没说,看来他和AI界短期内还是没有特别好的方案来解决数据枯竭的问题。
Ilya还说了:
“现在我们正在做的事情,迄今为止所扩展的事情,其实是我们最初找到的扩展方式。”
这等于是告诉我们,这十年来,LLM的根本方式并没有发生变化,老的逻辑虽然已经看到尽头,但仍在使用,新的根本方式还没有诞生。
关于大模型的“不可预测性”和怎样让它变得可信和可预测,他甚至也无法解释。
他说:“现在我们拥有令人难以置信的语言模型及其出色的聊天机器人,它们甚至可以做到一些事情,但在某种程度上又奇怪地不可靠,会感到困惑,同时在评估中表现出惊人的超人能力。因此,如何调和这个问题真的很不清楚。”
福布斯:红杉的假设已经算是乐观了
福布斯也站出来支持泡沫论。
他们刊登的文章认为,红杉的假设存在合理性,甚至,它还觉得红杉给出的6000亿数字算是乐观估计。
他们认为,整体看现在各个生成式AI应用的方向,不论是内部知识库、写代码、翻译,还是搜索、营销素材生成、法律/医疗查询,都不太属于增效的范畴。
而如果真的要衡量这些方案的ROI,还需要仔细计算相关业务的人效比这可能又是一笔糊涂账。
简而言之,除非这些数十亿美元AI投资能够带来更高、更显著的收入增长率,否则投资回报将无法达到所有人的预期。
福布斯的文章还引用《经济学人》的观点:“即使是乐观的分析师也认为,微软今年从生成式AI中赚取的利润不过 100 亿美元左右。”
言下之意,这得100年才能赚回这个钱。
华盛顿邮报的文章也认为是泡沫。
他们刊登的文章说:”大型科技公司称人工智能蓬勃发展,华尔街却开始看到泡沫。该行业已一头扎进人工智能领域,股市投资者也纷纷跟进,但越来越多的分析师表示怀疑了。“
前面说到,美国的基金经理的观点是分裂的,而美国的金融界和财经媒体也是分裂的。
摩根大通、麦肯锡和埃森哲都认为不是泡沫。
Oracle(甲骨文)的CEO Larry Ellison也公开宣布AI不是泡沫,并且计划建设一个13万卡的AI数据中心,并且想着配套三个核反应堆发电。
AI不是泡沫主要两个方面关键讨论点
关于是不是泡沫的讨论,焦点集中在两个方面的八个要点上:
一个方面:未来---AI的未来到底有多少效益?
细分一下,其中的讨论要点包括四个问题:
甘特曲线是否生效、杀手级应用会不会很快出现、生成式人工智能提升多少效率、通用人工智能能不能很快出现。
另一个方面:钱---从哪里来?投资回报是多少?
其中的讨论关键在四个问题:
股价是不是足够高、美国的钱够不够投资、投资回收周期多长、对AI适用投资回报的逻辑吗?
第一方面之一:甘特科技曲线
很多人都知道科技史上有个 著名的” 甘特曲线“,也就是新科技发明后都要经历一个:发明---上升---顶峰(过度发展)---低谷---再爬升---稳定的过程。
所以很多人认为AI也逃不脱这条曲线。
我不否认甘特曲线的存在,但我不认为每个高科技都会走甘特曲线的路子,比如移动电话、空调、PC机等,都是发明后一直上升的,并没有一个明显的跌落期。
符合甘特曲线和不符合甘特曲线的新科技是有区别的:
如果新科技一发明出来就立即被广泛应用,那跌落期就不存在了,符合甘特曲线的新科技往往是超前发展的,都知道将来有用,但短期内因为各种原因一时半会用不上的。
所以,AI有没有跌落期,AI会不会遵循甘特曲线,其实是看AI会不会现在就得到广泛应用。
第一方面之二:AI何时出现杀手级应用?
目前,所有人都承认AI目前没有杀手级应用,同时所有人都认为AI现阶段的ROI(回报和投入的比值)太低,但是对未来的乐观程度非常不一样。
前面的记者Edward Zitron就认为LLM大模型已经出现快2年了,还没有什么好的应用出现,或许将来永远都不会出现,因为LLM的运作模式已经决定了的。
而另外一些文章认为, AI已经出现了一些不错的应用, 虽然还不算杀手级应用,比如ChatGPT和编程用的GitHub Copilot。
“但是我们应该给AI一些空间,或许星星之火可以燎原。”
”在过去十年中,手机应用程序不断发展并帮助创造了数千亿美元的股东价值是我们在智能手机发明前没有估计到的。“
”人们都倾向于高估技术的短期影响 而低估其长期影响。“
”如今没有人能够预测人工智能技术将会出现哪些杀手级应用,但我们应该对人工智能的APP将发生变化的现实可能性要持开放态度,这或许会促成我们目前无法想象的应用程序的出现。“
我询问了在苹果工作的同学和在福特IT部门工作的亲戚,他们一致认为编程用的GitHub Copilot对他们帮助巨大,可见目前的生成式人工智能的在某些局部领域(如编程)的作用已经非常明显,不可看不见。
还有文章认为的观点和高盛报告里的两位股票分析师类似:
“现在还是在基础建设阶段,现在就要求AI出现杀手级的应用如同要求一个婴儿举起一桶水一样,太苛刻。”
”既然是基础建设,考虑它的回报周期要从五年起步算,十年、二十年都不算多。”
私人数据保密公司Skyflow的CEO Anshu Sharma认为新技术有技术风险和市场风险两种。技术风险是你可能做不出来,比如第一个航天飞机。
市场风险是你可以做出来,但可能卖不出,比如云存储。
而AI现在的表现,是既没有技术风险又没有市场风险,甚至它的商业模式都完美地和现在的三种云计算的收费模式匹配。
(注:云计算的三种收费模式为:IaaS、PaaS、SaaS,即分别为按基础设施使用量收费、按平台使用量收费和按用户数收费,百度网盘、微软Azure、Oracle数据库就是这三种典型。)
“人工智能革命是第一次我们既知道如何构建它,又知道如何将其盈利的革命。----Anshu Sharma说。”
高盛资产管理公司的 Sung Cho和他们公司的基本股票团队的投资组合经理 Brook Dane 乐观地认为,“我们越来越有信心,这个技术周期是真实的,这将会是一个大趋势。”
如果历史可作借鉴,那么生成式AI的杀手级应用,大概还需要数年时间才会出现。
虽然这么说,但我们现在已经可以看到一些苗头了。垂直领域AI代理(Vertical AI Agent)正逐渐成为颠覆行业的关键驱动力。
垂直领域AI代理可以将传统SaaS发展得更智能和更深度的场景嵌入,能够深入理解特定行业的专业知识与独特需求,提供精准的定制化解决方案。
这里举几个典型例子,比如,法律合同审查工具、智能化医疗诊断平台、简历筛选服务、个人日程安排、民意调查问卷设计、供应链优化的预测分析等等。
这些AI Agent虽然还够不上高盛眼里的杀手级应用,但也在一些细分领域发挥极大的作用了,随着这种细分领域越来越多,累积起来的效率提升也越来越多,导致杀手级应用出现的概率也越来越大。
第一方面之三:AI效率提升有多少GDP?
很多文章诟病高盛报告中的MIT教授Daron Acemoglu估计的AI只能给美国GDP带来只有0.9%的增长的说法。
Daron教授的估计办法是目前用得着AI的产业在GDP中的占比乘以该产业可能的效率提升,比如,广告创意,占比GDP为百分之X,而做AI提升广告创意的效率为Y,所以效率提升为X*Y。他估计AI只会影响23%的产业和4.6%的人类工作任务,乘以平均27%的人力成本,人类生产效率提升只有0.66%,进而只能提升0.9%的GDP。(Leo评论:这个估计显然太过于静止和悲观了,连我这个门外汉都觉得未来人工智能的行业渗透程度一定会远超23%,并且对全部人类工作任务的影响的比例更不会在4.6%。)
所以Googled网络和数据中心总监Daniel Golding直接批驳高盛的报告如下:(注意Google的员工肯定有预设立场的)
”高盛的研究重点太有限,他们完全专注于低端任务的效率提升,而它是人工智能最无趣的方面,这是视野上的失败。”
"高盛的研究主要是高盛的分析师采访其他高盛分析师和一些学术理论家,他们没有与任何接近商业现实的人交流。“
”高盛的经济学家完全专注于分析用昂贵的AI投入来取代低成本任务,这表明他们认为经济本质上是一个零和游戏---这是一个早在 19 世纪就被证明错误的经济理论。现实是,人工智能不仅能够提升人类完成高、低成本的任务, 也能使我们能够做以前从未可能做的事情,比如准确的天气预报和找出食品卡车的停放位置---蛋糕会被做大的、AI的成本也是在下降的。”
摩根大通的调研也指出,预期在2025年前接入AI进行生产的企业占比也超过55%,AI渗入企业中的比例远比23%高---因为用发展的眼光看,随着AI成本的下降,使用AI的行业和企业也会越来越多。
麦肯锡和埃森哲都认为:到 2028 年,人工智能对全球 GDP 的影响将达到 10万亿美元,相当于半个中国的GDP。
咨询公司普华永道的一项预测估计:到2030年,人工智能可能为全球经济增加近16 万亿美元,主要来自劳动生产率的大幅提高。
第一方面之四:通用人工智能何时出现?
高盛报告中,无论正反方,都隐含了一个潜在的观点:
“大模型和生成式人工智能(AIGC)能够产生的效益有限,AI要靠通用人工智能(AGI)来扛把子。”
而反驳者有两种:
一种认为现在生成式AI长期点看完全可以收回成本,所以有没有通用AI出现无所谓,都不影响。
一种认为生成式AI收回成本很困难,但远期还有通用AI,那个时候,人类的生产效率会得到大幅度提升,从而一举收回全部AI投资。
所以,无论是持哪方观点,大家都一致认为通用AI还是有点远,只不过区别在于一些人乐观地认为可以从现在的生成式AI过渡过去,而另外一些人悲观地认为现在的生成式AI的成果对未来的通用AI没有用,通用AI需要另起炉灶。
还有更悲观者,《LLM逻辑推理的枷锁与破局策略》作者Alejandro Piad Morffis论述了为什么大语言模型不具备推理(Reasoning)能力,并在X上引发强烈争论。
他认为,LLM在许多情况下所做的事情只是类似于推理,但并不完全是正确、可靠的推理算法,这比根本没有推理算法更糟糕,因为它会让你错误地认为它有效,并且你可能无法判断它何时无效,而再多的渐进式创新(技巧)也无法解决这个问题。如果没有范式转变,这些错误不可避免。
第二方面之一:AI股价高吗?
泡沫的特点是股票在投机过热的背景下大幅超出合理估值。若有一天,投资者了解公司的业务不能即刻在市场上兑现成长预期,投资者急卖股票就会令价格急跌,泡就随之爆破。
回顾2000年互联网泡沫高峰,当时5家最大的科技公司(微软、英特尔、朗讯和思科和IBM)的平均远期PE(市盈率)是59倍。
而现在2024年最大的五大科技股(亚马逊、微软、Meta、英伟达和Alphabet)的远期PE为34倍,虽然他们市值动不动几万亿,但不仅比2021年底低,还比2000年相差近一半。
并且,现在科技巨头的每股收益(EPS)增长率(42%)比互联网泡沫时(30%)更佳,而且我们仍在AI时期的早期阶段上,AI可以提高利润率。
摩根大通的报告说,当今的人工智能科技股 2024 年的平均盈利增长率估计为 42%,而2000 年互联网泡沫科技股的平均增长率预期只有30%。
前面说到的知名对冲基金Coatue还做过一个测算:
以互联网泡沫时期增长最为明显的思科为例,其五年平均市盈率为37倍,但泡沫时期高达132倍。
同样的计算方式对应到英伟达,其在过去五年平均市盈率为40倍,而今天(指几个月前的测算日)到了68倍,远未达到思科泡沫时期的水准。
作为新兴霸主,即使在半导体行业内,英伟达的市盈率也不过是中等偏上水平。
此外,泡沫破裂还是因为基础业务的情况发生了变化,这不仅仅是价格的变动。
2000年互联网股票崩溃时,几乎所有的公司的增长都停滞了。
例如,亚马逊的收入增长率从 1999 年的接近 180%降至 2001 年的仅 13%,更多的dot.com公司销售额降低。
而这次,谷歌公布其第二季度收入增长 14%,谷歌云(Google Cloud)增长 29%。微软收入增长 15%,其云基础设施业务 Azure 增长 29%。
这些都是强劲的增长数字,科技巨头们有成熟的商业模式和可靠的收入来源,基础业务非常健康,即便股价下跌、即使他们所有的人工智能计划都失败了,他们基础业务都没有倒退的可能性,换句话说,他们现有的业务的盈利状况也足够支持得起他们的股价。
第二方面之二:美国AI投资的钱哪里来?
前面我们提到的泡沫产生的两个前提条件之一就是市场要有钱,但当下美国金融市场的流动性并不乐观,这意味着即便AI是泡沫,上限高不了。
为了遏制疫情时期货币宽松所带来的40年来的最高通胀,美联储自2022年3月至2023年7月进行了11次加息。即使现在开始进入减息通道,利息还是在非常高的高位。
与此同时,美联储还开始了大规模缩表,从2022年6月开始,Fed每月减少600亿美元的国债持有量和350亿美元的抵押贷款支持证券(MBS)持有量。
一句话,在AI爆发期间,美联储正在进行自1980年代以来最激进的货币紧缩政策。
因此当下AI产业所处的位置更像是在基建时期,需要海量资金和高密度的技术,也正是这种阶段特性决定资金量不足的小VC和小公司很难入场。
从Coatue给出的数据看,此轮AI投资虽然热闹,但VC们并未出尽全力。私募股权公司手里还有1万亿美元的未投资金,处于历史最高水平。
所以现在AI的投资主力就是美股的Ma 7(股市七姐妹), 外加最近很积极的Oracle。
巨头的投入,与他们所创造的现金流相比,并没有十分激进。
从财报来看,这几家公司单季度少的有100多亿,多的有200多亿美元的纯利。
微软在2024财年Q2实现了220.4亿美元的利润,AlphabetQ2的利润则达到了236亿美元,亚马逊134亿美元。
七巨头的整体利润都非常健康。而且他们口袋里也有大把花不出去的现金。
苹果的自由现金流现在已经超过1000亿美元。
微软、Alphabet和亚马逊根据其收入增长速度是都有望在近几年加入“自由现金流1000亿美元俱乐部”。
Meta今年自由现金流可能超过300亿美元。
英伟达和特斯拉的自由现金流稍微少一些,但在AI爆发前,英伟达每年已经能创造几十亿美元的自由现金流,这两年赚的盆满钵满之后应该可以达到百亿的水平了。
针对AI的支出,七巨头们目前从利润到现金都在可承受范围之内。
如果这是下个时代的生死之战,他们留着这些利润和现金是准备带进坟墓吗?
正因为巨头们赌得起,所以谈不上不理性。
第二方面之三:投资回报周期多长?
另外一个理性的前提是,投资需要有对应的回报。
巨头们心甘情愿地参与军备竞赛,当钱不是问题,需要进一步回应的就是对投资回报率的质疑。这也是高盛发布的报告和红杉资本的6000亿问题所质疑的核心。
AI目前的阶段更像是基建。而基建的回报周期和短期投资不太一样,基本以五年起计。就连数据中心的回报周期一般都在4.5年左右。
AI的商业化普及可能需要5到10年的时间。回顾互联网的发展,最初的商业模式如广告和搜索引擎也经历了较长时间的培育。因此,我们需要对AI的商业化保持耐心和空间。
既然这是个长回报周期的投入,那投给AI的钱什么时候可以赚回来呢?
Couteue帮我们算了一笔账。AI在基础设施建设期,也就是到2030年,预计会花费1.2万亿美元(和高盛的1万亿有点差别)(不含电力设施),这大概是2500万单位的GPU外加相关支出。这看起来很庞大,但其实仅占全球IT支出的18%。
按照25%的ROI,即预期收益6000亿美元,加上1.2万亿,到2030年AI的投入必须转化出1.8万亿美元的收入才能实现收支平衡。
这可以通过两种方式达成。
一种是降本。只要AI能降低全球技术人员总薪资的5%或所有工人工资的3%,就可以达到1.8万亿的收益。(Leo评:这个听起来有点不可思议,技术人员的工资是市场供需决定的,不是想降就降的,除非AI导致技术人员过剩)
另一个是增收。如果AI能带来全球2%的GPD增长,提升所有上市公司3%的收入,那AI公司只要从中赚取一半的收益,也能到1.8万亿。(Leo评:AI带来了收益,AI公司怎么才能分到一半?电子邮件发明了,哪个公司赚到了电子邮件带来的附加好处的一半?)
那么问题来了,AI能带来降本增效的结果吗?投资回报时间这个争议的焦点本质上变成了AI能带来多少效益。
高盛在8月报告《Will the $1 trillion of generative AI investment pay off?》(一万亿的AI投资是否会得到回报?),高盛资产管理公司基本股票团队的投资组合经理 Brook Dane这样说:
“当前市场上最大的问题是:我们能从投资中获得回报吗?我相当确信我们正在看到这种回报。有几个数据点让我感到安心。”
“首先,我们花了很多时间与一家超大规模公司的CFO交流,这个人非常坦率地谈论了他们如何在部署GPU 的集群中进行投资回报率(ROI)计算,以及从回报的角度看,他们发现这非常有利可图,虽然没有给出任何具体数字。”
“现在,这家公司已经在其基础设施上为推荐引擎运行了大量的推理工作负载。正如这些模型所预测的,他们看到了用户在其平台上停留时间增加的结果,所以对他们来说,投资回报率的计算可能是最简单的,因为你可以部署一个集群,你可以使用更复杂的算法,从而导致更多的用户停留时间,这可以带来更多的广告展示,进而推动收入。“
”第二件事,这是长期跟踪该行业以及最近与另一家超大规模公司就其资本支出计划进行多次讨论得出的:我们知道他们在历史上一直非常自律,以及他们如何看到收入的增量增长,以及看到他们从资本支出中获得的增量回报。”
“这位首席财务官强调他们有钱,如果能获得更多的GPU 来部署,他们会的。我认识这个人 20年了,了解他们如何处理资本预算,如何花费他们的资本。如果他们面前没有看到真正、切实、有形的回报,这个人是不会这样做的,而且他们非常坚决,但现在还处于早期。”
Dane没有点名,但我猜他说的这家公司是Google,可见巨头们对自己的投资能够获得回报是有内部数据支撑的,但其中也有Bug,因为这位CFO只提了广告收入,这恐怕不足以收回万亿美元的。
微软首席财务官在财报会议上直言,该公司对AI的巨额投资,至少要15年才有回报。
高盛则表示,AI行业的变革潜力可能会产生深远的宏观影响,但这将是“一个10年以上的转变”。
无论如何,有一点是大家的共识:这是个长期投资,五年、十年、二十年的回收周期都是有可能的。
不过,也有不认可这个说法的。
Daniel Golding, CTO of Appleby Strategy Group(一家数据中心建设公司)在领英上发表文章说:
“问题就出在这里,对于高盛和该领域的许多私募股权公司来说,投资的时间线与范式转换技术的现实严重不匹配。真正具有变革性的人工智能的实际时间线是5 到 10年,在此期间会有大量的投资和大量的技术进步,以及我们社会和经济的相应变化,但投资者不想等十年。”
所以,如果投资者不愿意等十年,会发生什么很难预测,不过,幸好现在的主要投资者都是巨头,他们还是等得起十年的。
第二方面之四:对AI适用ROI的逻辑吗?
也有文章提出了一个非理性的问题:这些AI的投资,用当下的ROI去衡量一场基建性质的科技进步是否合理?或者说,泡沫破裂的后果一定是坏的吗?
目前的AI的确面临投入高、应用难的问题,但如果我们把目光放远,转向那些在历史上被称作泡沫的基建时期,就会有不一样的发现。
在互联网泡沫破裂之前,电信公司在华街筹集了1.6万亿美元,并发行了6000亿美元债券,建设的光纤电缆达到8020万英里,占到美国历史上基础数字布线总数的76%,为互联网的成熟奠定基础,这些钱到今天都没有收回。
如果再往前看,19世纪40年代英国铁路泡沫以及由此建造的铁路,为英国的高度工业革命打下地基,在经济泡沫时期批准的铁路计划里程数更是占了英国铁路系统总里程的90%。
当我们谈论互联网泡沫时,并非指互联网技术是泡沫,而是特指一种主要形式为电子商务、被过度兴奋的投机性投资所吹捧的商业模式。
而人工智能意味着更多,历史的车轮更不会因为泡沫破裂而停下。人工智能的支持者总是迅速指出,AI是新的互联网,一种根本性的新技术架构,如果这是真的,那它就不会化作泡沫。
细想一下,或许也可以。
首先,前面说到目前主要的AI投资都是几个大云厂的自有资金,没有多少VC(风险资本),这些钱打了水漂也不会造成连锁反应。
其次,这些资金虽然属于股东,但如果不用这些资金投资AI,就不会给市场带来想象的空间,反而会连累股价,给股东造成损失。
所以,这些资金要不要追求回报、要多少回报、回报周期是多长都不是他们要考虑的,他们必须得下注AI,并且必须是孤注一掷的坚定。
更何况还有FOMO的动机在作用,那更得义无反顾地投入AI了。
其他深度见解
在阅读中,我还看到一些有深度的见解,正反两边的立场都有,这里列举给读者,不过读上去有点思维混乱,可以跳过不读。
因为篇幅的关系我就省去大部分见解的发表者的身份了。
“高盛的报告范围广泛,但存在缺陷,即假设人工智能的好处来自效率而不是价值创造。”
“巨头们投入AI的不仅仅是海量的资金,还有多年来积攒的技术、数据和雄厚的基础客户,这些都是将小投资者和小企业挤出AI市场的优势,最终导致资金都来自巨头们,最后的基础设施的收益也归巨头所有。”
“现在的情况是,我们(某云厂)都必须表明我们愿意根据需要进行投资,因为我们想保持这种领导地位,但在某个时候,投资负担会变得如此沉重,其中一家……会说:“也许下个季度,我们不会投资这么多”,然后你会看到其他公司也会这么做。总的来说,这种投资水平是不可持续的。”
“人工智能革命是第一次我们既知道如何构建它,又知道如何将其盈利的革命。”
“很明显,过去一两年我们看到的极高的估值表明存在泡沫;价格调整很可能即将到来,甚至可能已经在进行中。然而,尽管如此,我相信人工智能的中长期前景非常强劲。它肯定有可能像 20 世纪后期互联网的出现最终证明的那样。”
“当今的生成式人工智能技术无疑是昂贵的。与它相比,人脑在执行认知任务时每单位能量的效率高出 10,000 倍,但该技术的成本方程将会改变,成本会越来越低,就像过去发生过的事情一样。”
“历史上大多数泡沫的结束,要么是因为资本成本急剧变化,要么是因为最终需求恶化影响了企业持续投资的能力,而不是因为公司不再投资一项投资回报比预期更长的技术。"
“AI的商业化普及可能需要5到10年的时间。回顾互联网的发展,最初的商业模式如广告和搜索引擎也经历了较长时间的培育。因此,我们需要对AI的商业化保持耐心和空间。”
“从基础设施的角度来看,竞赛在很大程度上已经结束。但在构建垂直和特定行业的大型语言模型和模型,以及许多边缘使用案例方面,我认为这还没有定论,我认为这是很多创新将会出现的地方。”
“我要补充的是,我不认为这个市场只有少数几家大型公司是赢家。本质上,除了模型训练部分之外,最重要的是:你拥有哪些独特的数据,你可以用来帮助客户?”
“AI解决的不是连接问题,而是重新组织生产资料和提升生产力。AI能够在数字孪生的世界中发挥更大的作用,替代人的处理能力。它不仅仅是通过连接,而是通过智能判断和自动化操作。例如,空调和电冰箱连接到互联网后,仍需要人为设定参数,但有了AI后,这些设备可以自主判断并执行操作,如在气温超过28度时自动开启空调。这就是AI在经济生态中发挥的作用,与互联网的作用不同。实际上,许多行业更需要AI,而不是互联网。”
“有一句老掉牙的笑话:投资中最危险的是‘this time is different’。每一项重要的技术进步在历史上都伴随着某种金融泡沫,自金融市场存在以来都是如此。”
“今天的人工智能领导者如微软、英伟达、Alphabet 和 Meta 等公司已经非常盈利。他们有经过验证的商业模式和可靠的收入来源,即使他们所有的人工智能计划都失败了,这些收入来源也很可能不会枯竭。”
“推理的软件优化速度是极快的。就看看DeepSeek当初的工作,以及现在各种蒸馏、小模型的进展。某种程度上,这都是被缺卡逼出来的,软件工程师会用各种方法削弱对硬件的依赖...降本增效嘛。因此,至少在明年之前,推理算力可以说是非常非常富足,就看需求能否被激发出来...”
“今天,正在进行的AI数据中心加速计算建设只是第一阶段,但这只是构建所有AI应用程序的支柱,增加了一个颠覆性的技术层(LLMs),成本更低,上市更快。”
"人工智能越“特定”和“狭窄”,它就越有用。没有经过高度训练、优化和针对您的公司、业务和工作进行调整的通用大型语言模型(LLM)根本不会获得高价。所以,虽然我们都认为ChatGPT 是天堂,但我们现在发现高度专业化的解决方案才是答案。”
“从GPU的供需来说,结构性不平衡导致价格差距较大。目前大模型赛道马太效应非常明显,小的模型生存困难,要么降低价格,要么关门抛售GPU,这导致零星的GPU在市场上出现过剩。”
"怀疑论者经常指出人工智能股票价格的快速上涨是即将出现泡沫的迹象。然而,历史背景和当前的市场分析讲述了一个不同的故事。当今领先的人工智能公司的估值虽然很高,但不像互联网泡沫时期那样膨胀。这些公司拥有强大的资产负债表和明确的盈利途径,为可持续增长提供了基础。"
“一个不容忽视的现实挑战:如果科技巨头无法在未来三到五年通过大模型获得切实的业绩增长、回收在AI基础设施上进行的庞大投入,那AI行业的增长也将后继无力。”
“当下AI行业似乎已经不是寅吃卯粮、不是超前投资,而是极度的缺乏产品。”
前面提到的高盛股票分析师Eric Sheridan说:“我再次承认,目前投资资本回报率 (ROIC) 的可 见性较低,人工智能的变革潜力仍将继续受到激烈争论,直到这一点变得更加清晰。但人工智能怀疑论者忽略了三件关键的事情。第一,对现有/历史数据进行培训,以告知和推动未来的分析结 果,听起来就像上大学一样人们在毕业后的几十年里继续学 习,然后提高生产力和效率,而机器绝对可以做到同样的事情。第二,今天的机器可以比人类更高效地完成一系列任务,并且在 未来几十年内仍然如此。第三,在智能手机、Uber 或 Airbnb 出 现之前,人们并不认为他们需要它们。但在今天,人们曾经抵制 这样的技术进步似乎是不可想象的。几乎可以肯定,这对于生成 式人工智能技术来说也是如此。”
微软”小冰“之父李笛:“对话式AI泡沫明显,数据和用量是硬伤。”
风险投资界著名的投资公司a16z的观点:"AI泡沫不可避免,但未来的“金子”公司也会在泡沫时代中成立。"
比尔盖茨的观点:“现在AI市场的狂热程度远超互联网泡沫,但AI技术的潜力和价值仍然被严重低估。"
金沙江主管合伙人朱啸虎就认为:“大模型是很差的商业模式,大模型是要每两三年就要砸更多的钱去升级,而且变现的周期可能就两三年。”
华尔街“TMT之王”Coatue代表观点:“AI不是炒作,黄金时代还没有到来;AI不是估值泡沫,但主要是巨头的游戏。”
Anthropic公司CEO Dario Amodei作为人工智能领域的重要人物,预测AGI(通用人工智能)可能会在2026年问世。
软银老板孙正义一直看好AI,他认为AGI是达到与人类大脑同等水平的智能,而对于ASI(超级人工智能),他有着自己的标准要比人类大脑聪明一万倍。这个雄心勃勃的目标,他预计将在2035年实现,仅仅是十年之后的事情。如果ASI能在未来10年内替代全球GDP的5%,每年就能创造9万亿美元的产值,足以在一年内收回全部投资。他预测,未来四家顶级AI公司每家都将获得约1万亿美元的年度利润。
Open AI CEO Sam Alaman上个月在他们的开发者大会上接受采访为AI做了些辩护。他说了几个观点, 比如:“在 GPT-3.5 时代,感觉有 95% 的创业公司都在押注模型不会有太大进步。而现在倒过来了,95%的人们已经意识到了这种模型的进步速度,也听到了我们想要实现的目标。所以模型上的缺陷以后不再是一个问题。”
Sam Altman也承认模型确实是会贬值的资产,这一点毋庸置疑,但说它们不值得投入训练成本,这种观点似乎完全错误,更不用说,当你在训练这些模型时会产生一个正向的复合效应,你会在训练下一个模型时变得更加熟练。从模型实际能带来的收入来看,我认为这些投资是值得的。不过公平地说,这种情况也不适用于所有人。
简化总结一下对立的观点
写到这里,是时候将这些对立的观点进行压缩和简化了。
认为AI是泡沫的观点的要点:
--- 股市在历史新高,都是AI相关公司带动的,但其AI的收益很少;
--- 投入太多,没有杀手级应用,回收几乎是不可能的;
--- 算力贬值极快,投入等于很快就会打水漂,现在已经有局部富余了;
--- AI的使用门槛太低,很快大家都掌握,就没人能够赚钱;
--- 大模型这种对投入的要求是指数增加的, 这从资金、电力、算力、数据四个维度上看都是不可持续的;
--- 大模型并不“聪明”,它是概率性的输出,没有足够的准确性,实用性很低,也导致需求低;
认为AI不是泡沫的观点的要点:
--- 算力投入是基础设施的投入,回报周期很长也不要紧;
--- 股市七姐妹的市盈率并不高;
--- 股市七姐妹因为FOMO必须要投,并且他们有足够的钱投;
--- AI三个要素:算力、算法和数据,都可以优化,从而大幅度提升大模型的效率;
--- 大模型只是打开了一扇门,后面还有充满想象力的AI新世界等待着我们,或许新的通用人工智能几年内就能问世;
好了,以上每个观点都有其正确性,那到底是不是泡沫,就看以上各个要素的权重大小,这点请读者自行判断。
作者Leo的观点
读了那么多报告,说一下我个人观点,我认为AI不是泡沫,或者说,即使是泡沫,也是很小的泡沫。
上面所有因素里面,巨头们的FOMO和荷包鼓鼓是两个最大权重的,对其他因素是碾压性的,所以对AI的持续投入明年是必然的。
但是它也是受限的,应用、资金、算力、电力和数据的不足轮流会成为卡脖子的因素,导致它不可能一飞冲天似的发展,这样就更不是泡沫。
我个人觉得高盛9月份和红杉的报告均有个致命的错误假设:用静态的思维在想像AI的发展。
实际上,整个AI也是在发展中的,用静态的思维想未来,误判的概率比较大。
比如,训练的数据虽然不够了,但那指的是文本数据,而多模态数据(如图像、视频和音频)还有很多,并且人类还在产生新的数据文本。
关于生成式AI的模糊性和不准确性,人类社会其实并不需要处处都是高精度的、准确的数据,比如空调开多少度,汽车跑多快,蛋白质吃几克。 我们潜意识认为我们需要高精度数据,那是只不过是因为人们已经习惯使用高精度准确数据,并且以此为锚,因为模糊的东西无法处理无法记载,人也无所适从。
所以生成式AI即便是“非精准的”,即便是通用AI迟迟不出现,它也能适应很多很多人类的需求,毛毛估一下,也有个七八成的需求不需要高精度的准确性。
不过,“不是泡沫”的认定并不能推断英伟达那么高的股价并不会掉落。和其他几个科技巨头不同,它是卖铲子的,等于它要先行一步。AI那么多限制因素,时时刻刻会阻碍着AI的冒进,也有可能会出现需求没有下降但基建推进缓慢的情况,这时候英伟达的业绩表现可能会低于预期。
最后,不管怎么样,人类的机器智能时代已经开启。
附录:参考文章列表(注:有些文章在国内无法打开)
1.Agencies have their say on Goldman Sachs’s ‘AI is all hype’ claim | The Drum
2.Goldman Sachs On Generative AI: It’s Complicated | ETF Trends
3.Nvidia, ChatGPT and more: Is there an AI bubble nd is it about to pop? | Vox
5.Generative AI Future of Work Talent Transformation | Accenture
6.Beyond the hype: Capturing the potential of AI and gen AI in tech, media, and telecom | McKinsey
7.Gen AI: too much spend, too little benefit? | Goldman Sachs
8.Goldman Sachs calls GenAI overhyped, wildly expensive, warns investor of AI bubble popping soon Firstpost
9.Will the $1 trillion of generative AI investment pay off? | Goldman Sachs
10.Big Tech is spending billions on AI. Some on Wall Street see a bubble. - The Washington Post
11.Has the AI bubble burst? Wall Street wonders if artificial intelligence will ever make money|CNN
16.When Will The Trillions Invested In AI Pay Off? Sooner ThanYou Think
17.Generative AI Isn’t a Tech Bubble That’s Deflating (aiworldtoday.net)
19.Three Big Differences Between the AI and Dot-Com Bubbles - Bloomberg
20.Is the AI Bubble Popping? Don't Be so Sure. | The Motley Fool
22.Goldman Sachs: Wrong on AI and Wrong on the Future
23.Goldman Sachs Is Wrong About AI (Why AI Isn't A Bubble) | The AI Daily Brief (Formerly The AI Breakdown): Artificial Intelligence News and Analysis Podcast (everand.com)
24.Pop Culture|Ed Zitron
25.Will generative AI live up to its hype? -IBM Blog
26.红杉、高盛警告:AI信心摇摇欲坠,投资泡沫到达顶点-虎嗅网(huxiu.com)
27.AI Industry May Never Earn Back Its $150 Billion Nvidia Chip Spend (Forbes)
30.The AI 'bubble' has helped the U.S. stock market dominate the world. Whathappens if it bursts? | Morningstar
31.Are We in an AI Bubble? | The Motley Fool
32.Are We in an AI Bubble? | Investing | U.S. News (usnews.com)
34.Is there an AI bubble? Here’s what 226 fund managers say. - MarketWatch
35.The Game Theory of AI CapEx | Sequoia Capital
36.探索AGI系列 | 01. LLM不等于(AGI)通用人工智能望周知 - 知乎 (zhihu.com)
37.Why AI stocks aren’t in a bubble | Goldman Sachs
38.$2 H100s: How the GPU Bubble Burst - by Eugene Cheah (latent.space)
39.Scaling Laws for Precision