以下文章来源于晶上世界,作者泛灵
近年来,人工智能(AI)迅速崛起,成为全球科技和产业界的焦点。随着AI技术的不断突破和应用场景的不断拓展,市场对AI PC、AI Phone、AI Car这些板块的关注度持续拉升,AI芯片作为支撑AI运算的核心硬件,也迎来了前所未有的发展机遇。
据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。AMD则预计,2027年全球数据中心 AI 计算市场规模将超过1500亿美元(约合人民币1.095万亿元),年复合增长率超过50%。
自英伟达率先在AI大模型算力芯片市场占据主导地位,市值突破万亿大关后,英特尔、AMD以及中国GPU芯片公司也纷纷发力,渴望在AI芯片市场中分得一杯羹。然而在无限风光的背后,无论是行业领导者还是独角兽新秀,都有本自家“难念的经”。
01
自研AI芯片的困境
梦想与现实仍有距离
目前AI芯片市场依旧是英伟达一骑绝尘,据最新估计其全球市场份额已达90%,创下新记录。然而随着全球的科技巨头、云服务提供商和初创公司都在抢夺算力资源来开发自己的人工智能模型,英伟达的芯片供不应求,价格也水涨船高。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。
近期AI圈的热点之一便是OpenAI首席执行官Altman计划自研AI芯片,并正在与台积电和中东投资者进行谈判。
亚马逊作为最先涉足自研芯片的厂商,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU);Facebook母公司Meta在十年前就开始努力了,终于在去年5月19日首次官宣了其自研AI芯片MTIA的进展;微软也在 Ignite 2023 大会上,发布了用于数据中心的AI 芯片Azure Maia 100。
然而,微软和Meta的研发进度相对较慢,仍依赖英伟达的芯片。根据市场研究公司Omdia Research的最新报告,2023年,Meta和微软两家公司以15万块H100 GPU的购买量并列位居第一。微软预计于去年十一月发布的AI芯片雅典娜也一再推迟,Meta近日则高调宣布将花费近百亿美元购入35万个H100,这也表明其自身研发并不顺利。
2023英伟达H100的最终出货量预估,图源:Omdia Research
国内厂商寒冬难熬
在过去3-4年里,国内AI芯片企业可以说是百花齐放,涌现出诸如海思、燧原、寒武纪、地平线等实力不菲的厂商,奋力追赶国外巨头,希望打破AI芯片的垄断格局。
然而激昂的呼声散去,这些过去红极一时的独角兽们似乎愈来愈命运未卜。
近日,壁仞科技的重要成员徐凌杰宣布离职,这是继GPU产品线总经理焦国方离职后,壁仞科技失去的第二位联合创办人。这一连串的高层变动,无疑给公司的未来发展蒙上了一层阴影。
与此同时,曾备受市场瞩目的AI芯片企业寒武纪也正处于艰难时期。这家公司已经连续七年亏损,市值大幅缩水,创始投资股东也在减持股份。曾一度笼罩的中科院光环也几乎消散,AI芯片市场的泡沫似乎正面临破裂的风险。从2023年第二季度开始,寒武纪被曝出裁员消息,近期其子公司行歌科技也宣布将大规模裁员。
曾在中国火红一时的AI芯片厂,宛如「冬日里的一把火」,未能抵御大环境紧缩与外在禁令围剿而陷入寒冬与困境。资本市场对AI芯片的追捧,也转为对其的灵魂拷问:能不能撑过今年冬天?
02
“遥遥领先”的头部公司同样不安
“我们不需要假装公司一直处在危险之中,我们确实一直处于危险之中”,英伟达创始人黄仁勋在去年十一月的一场演讲中表示。
压力首先来自同行围剿
产品方面,除了那些“不忠诚的”客户们,纷纷自研芯片,AMD和英特尔和两个老对手,每次发布新芯片,也都会和英伟达作对比。例如AMD12月6日推出MI300x时,宣称表现优于英伟达的AH100。英伟达随后发布了自己的基准测试作为回应,表明AH100在正确的设置下仍然更好。AMD再次对此做出回应,发布了新的基准测试,再次显示MI300X在正确的设置下表现出色。
生态建设方面,英伟达芯片帝国的护城河CUDA也正遭猛烈进攻,MLIR、谷歌、OpenAI等正在转向一个“以Python语言为基础的编程层”,以使AI训练更加开放。
与白宫的“猫鼠游戏”
近年来,美国政府为了限制我国在人工智能领域的发展,频频出台或修正出口管制规定,要求“高性能半导体”不能出口到中国,英伟达的王牌芯片A100和H100首先被狙击,为了保住中国市场,英伟达不断阉割性能以符合规定,先后推出了“一次降级芯片”A800和H800、“二次降级芯片”H20、L20、L2等多款产品,然而国内云计算公司对英伟达的订单依旧愈来愈少,转而购买华为等本土企业开发的芯片。
1月26日,美国商务部部长雷蒙多更是直言,美国正在“尽全力阻止中国获得算力”。可见美国政府将继续收紧对华出口标准,限制我国企业能获得的算力,进而降低训练AI的效率,保持其在人工智能领域的领先地位。可见,英伟达与白宫的这场“猫鼠游戏”还将继续进行。
伴随市场丢失的珍贵数据
正如上文所提到到,互联网巨头或人工智能公司自研AI芯片正在成为一种趋势,尽管困难重重,但他们具备一项英伟达所必需的重要资源,那就是数据。
在AI算法开发过程中会遇到的各种问题和数据,这些信息反馈给英伟达时,英伟达才能在后续迭代中,针对性地改进自己的产品,提升使用体验。而我国在人工智能领域走在世界前列,英伟达伴随中国市场丢失的,将是无法用数字统计的价值。
03
AI芯片还有哪些发展动力
尽管发展势头有所削弱,但得益于供应链及生态优势,英伟达在AI算力芯片领域的主导地位短期内不会发生改变。但无论是芯片企业,还是下游客户,都不想看到“英伟达”一家独占鳌头。
AI芯片的蓝海中,竞争正日趋激烈。面对这样的市场环境,AI芯片产业的发展动力何在?如何发掘新的竞争优势呢?
存算一体,算力数量级提升
以数据为主的AI计算之下,冯诺伊曼架构的“存储墙”和“功耗墙”挑战凸显。随算力增加,处理器核心数增多,每核心可用带宽越来越少,限制了整体速度。搬运数据,成为相当大的瓶颈。如果不进行存储优化,芯片提供的计算力会大大降低。
而当下的计算处理器如CPU,GPU或AI专用芯片等,均采用冯诺依曼架构设计,80%的功耗发生在数据传输上,99%的时间消耗在存储器书写过程中,而真正用于计算的能耗和时间其实占比很低。
因此,只有低功耗基础上的大算力才是可持续发展。
存算一体化是将计算机中的运算从中央处理器转入内存中进行,直接在存储单元内部进行运算,缓解数据搬运,可大幅降低数据交换时间以及计算过程中的数据存取能耗。
存算一体是现阶段实现高带宽、低功耗、计算需求的一条有效途径,如何有效控制存内计算接口是一个重要挑战。谁拥有兼顾计算密度与存储密度的存内计算硬件架构,谁就拥有了打开高能效计算的金钥匙。
2019年后,新增的AI芯片厂商,多数在布局存算一体:据睿洞察不完全统计,在2019-2021年新增的AI芯片厂商有20家,在这之中,有10家选择存算一体路线。整体来看,目前国内外在存算一体方面都处于起步阶段,存算一体正处于学术界向工业界迁移的关键时期,所以这可能是发展国产芯片的另一大重要方向。
数据来源:睿洞察
系统级创新
AMD的CEO苏姿丰曾指出,按照当前计算效率每两年提升2.2倍的速度,到2035年,若要达到十万亿亿级的算力,所需功率将高达500MW,这几乎相当于半个核电站的输出功率。面对如此不切实际的能源消耗,系统级创新显得尤为重要。它不再局限于单一的芯片或电路设计,而是需要从上至下,协同考虑软件、系统架构、封装技术等多个层面,实现整体性能的优化。
同样,欧洲三大半导体研究机构IMEC、CEA Leti和Fraunhofer的在一次联合演讲中,也强调了系统级创新在未来半导体发展中的核心地位。随着半导体工艺逼近物理极限,新的应用需求已经无法通过单纯的工艺提升来满足。特别是下一代智能汽车和AI应用,它们对芯片的需求更加复杂和多样化,需要从系统层面进行整体考虑和创新。
芯片设计范式变革,图片来源:孙凝晖院士集成芯片与芯粒大会报告
系统级创新或系统工艺协同优化,是一种全新的设计理念。它从产品需求出发,反向推导到系统架构、芯片设计和半导体工艺等各个环节。通过各个环节的协同优化,最终实现产品性能的大幅提升。这种“由外向内”的设计思路,打破了传统半导体设计的局限,为行业带来了新的发展机遇。
苏姿丰给出了一个经典案例。在对模型算法层面使用创新数制(例如8位浮点数FP8)的同时,在电路层对算法层面进行优化支持,最终实现计算层面数量级的效率提升:相比传统的32位浮点数(FP32),进行系统级创新的FP8则可以将计算效率提升30倍之多。而如果仅仅是优化FP32计算单元的效率,无论如何也难以实现数量级的效率提升。这一成果充分证明了系统级创新在提升计算效率方面的巨大潜力。
特定域计算支持工作负载优化,从而提高性能和效率。图源:ISSCC2023大会
千帆竞渡,创新领航
在技术飞速发展的时代,创新是打破技术壁垒、提升竞争力的关键。我国AI芯片厂商面临着国际技术封锁和市场竞争的双重压力,只有通过不断创新,才能在激烈的竞争中立于不败之地。
未来,异构计算丛集、特定加速单元、先进封装技术、高速片间UCIe互联、存算一体等内存技术,这些技术的融合和创新,将为半导体行业带来新的发展动力和方向。我国芯片厂商需要紧跟技术前沿,并敢于推进技术产业化,毕竟,长坡厚雪的AI算力芯片赛道,如果缺乏核心竞争力而仅靠融资输血来维持公司研发投入,很难持久。