阿尔法公社
重度帮助创业者的天使投资基金
━━━━━━
阿尔法公社说:算力是人工智能行业发展的重要动力,英伟达因为GPU在人工智能计算中的重要作用而中兴,但仍有很多类型的人工智能计算是GPU不擅长的,这就需要专门的AI芯片进行计算。国内已有AI芯片公司寒武纪上市,华为、阿里等巨头也推出自己的AI芯片,而Graphcore则是一家英国AI芯片独角兽,我们来看它的故事。
以布里斯托市A38路旁的喷泉池为起始点,你需要花用不到20分钟时间,就可以骑自行车“冲”出这座英国西南部城市的CBD,进入几乎只有成排英式平房、灌木丛和河道的郊外。
没错,即便布里斯托(Bristol)是名副其实的英国西南部中心,但从城市规模来看,但它依然被很多中国留学生起了一个非常清新脱俗的名字“布村”。( “除了伦敦,其他都是村儿”。)
然而,如今接触芯片产业后,我们才恍然发现,这座古老的英国小城,竟然藏着英国最强大的半导体产业集群之一。
图为英伟达在布里斯托的研发中心。2011年收购英国半导体公司 Icera 后,英伟达便在布里斯托扎根,并在这里投资上千万英镑建立新工厂和实验室
1972年,硅谷大名鼎鼎的仙童半导体(英特尔、AMD的创始人们都是从这家公司出来的)为进入欧洲市场做出了一个重要决策在布里斯托设立一个办事处。自此,便打开了这座英国西部小城面向半导体产业的全球视野。
而6年后,诞生于布里斯托,并在80年代占据全球SRAM市场60%份额的微处理器公司Inmos,接受了卡拉汉政府与撒切尔政府高达2亿英镑的投资,才终于创造出以布里斯托核心的英国半导体基础设施与生态系统,召集了大批像XMOS 半导体创始人、英国著名计算机科学家David May这样的半导体超级精英。
“其实布里斯托一直都是英国的IT重镇。它与周围的斯温顿、格洛斯特组成一个三角地带,被称为欧洲的‘硅谷’。半导体公司如果在欧洲设立研发中心,布里斯托通常是首眩譬如英伟达、惠普、博通、高通等世界级巨头都在布里斯托设有办事处。”
一位了解欧洲半导体产业的从业者告诉记者,很多人因为ARM对剑桥印象深刻,但从历史来看,实际上布里斯托才是英国的芯片设计中心。
“华为也在布里斯托也有研发中心。”
就像上世纪50年代,8位天才“叛徒”离开仙童半导体创立英特尔、AMD、泰瑞达等公司,才成就了如今的硅谷一样,布里斯托才华横溢的工程师们也不甘于停留在“过去”在摩尔定律失效争议进入高潮,人工智能、计算结构发生异变的“临界点”上,没有人不渴望能够成为那个改变时代的领导者。
一位名叫 Simon Knowles 的工程师从剑桥大学毕业后,在1989年第一次踏上布里斯托的土地,接受了存储器企业Inmos的一份芯片设计工作。
在此后近20年里,从Inmos内部一个专用处理器团队的领导者,再到两家半导体企业Element 14与 Icera的创始人之一,Knowles几乎见证了摩尔定律达到巅峰和走向衰落的全过程。而幸运的是,Knowles参与创立的这两家总估值超过10亿美元的公司,分别在2000年和2011年被博通和英伟达收购。
没有任何意外,这位天才半导体设计师与连续创业者,又继续在2016年另起炉灶,与另一位天才半导体工程师Nigel Toon创立了一家新的半导体设计公司,主动迎击人工智能市场需求触发的芯片架构创新机会。
没错,这家公司就是刚在2020年12月29日宣布完成2.22亿融资(这笔融资也让公司的资产负债表上拥有4.4亿美元现金),估值已高达27.7亿美元,被外媒称为英伟达最大对手之一的人工智能加速处理器设计商Graphcore。
需要注意,它也是目前西方AI芯片领域唯一的独角兽。
图片为Graphcore的IPU处理器
西方私募与风投对待半导体这种项目一直非常谨慎,因为它们资金高度密集且无法预估前期投资回报。正如Knowles在一次采访时承认:“与能够小规模尝试、不成功再换一个坑的软件产业相比,如果一枚芯片设计失败,除了花光所有钱,公司几乎无路可眩”
因此,直到2018年以后,随着人工智能商业化的可能性被持续鼓吹和放大,投资者们才确定可以从“人工智能大规模运算驱动芯片结构变革”的趋势中看到回报前景。
于是,在2017年获得了超过8000万美元投资后的Graphcore,又接连在2018年与2020年分别获得2亿与1.5亿美元风险投资。
需要注意的是,除了博世、三星从A轮就开始参投,红杉资本是Graphcore的C轮领投方,而微软与宝马i风投则成为其D轮融资领投方;
而E轮融资的主要参与者,则是非产业基金加拿大安大略省教师养老金计划委员会领投,富达国际与施罗德集团也加入了这轮融资。
你可以从投资方看出,Graphcore的产业投资方基本分为三个产业方向云计算(数据中心)、移动设备(手机)与汽车(自动驾驶)。没错,这是三个最早被人工智能技术“入侵”的产业。
图片来自Crunchbase
工业界们似乎越来越达成这样一个共识,未来需要有一家像ARM主导移动设备时代一样的底层创新企业,除了有希望卖出上亿块芯片的同时,也能推动人工智能与各个产业的深度整合,最终触达到上百亿普通消费者。
从产品的角度来看,Graphcore 在2020年拿出了相对引人注目的作品推出第二代 IPU-M2000芯片,该芯片搭载在一个名为IPU Machine platform的计算平台上。另外,其芯片配套的软件栈工具Poplar也有同步更新。
“教计算机如何学习,与教计算机做数学题,是完全不同的两件事。提升一台机器的‘理解力’,底层驱动注重的是效率,而不是速度。” Graphcore CEO Nigel Toon 将新一代AI芯片的开发工作视为一个“千载难逢的机会”。
“任何公司能做到这一点,都能分享对未来几十年人工智能技术创新和商业化的决定权。”
切中英伟达的“软肋”
没有一家AI芯片设计公司不想干掉市值高达3394亿美元的英伟达。或者说,没有一家公司不想做出比GPU更好的人工智能加速器产品。
因此,近5年来,大大小小的芯片设计公司都倾向于在PPT上,用英伟达的T4、V100,甚至是近期发布的“最强产品”A100与自己的企业级芯片产品做比较,证明自己的处理器拥有更好的运算效率。
Graphcore也没有例外。
他们同样认为,由于上一代的微处理器譬如中央处理器(CPU)和图形处理单元(GPU)并不是为人工智能相关工作而专门设计,工业界需要一种全新的芯片架构,来迎合全新的数据处理方式。
当然,这样的说法并不是利益相关者们的单纯臆想。
我们无法忽视来自学术界与产业界对GPU越来越多的杂音随着人工智能算法训练与推理模型多样性的迅速增加,在诞生之初并不是为了人工智能而设计的GPU暴露出了自己“不擅长”的领域。
“如果你做的只是深度学习里的卷积神经网络(CNN),那么GPU是一个很好的解决方案,但网络已经越‘长’越复杂,GPU已经难以满足AI开发者们越来越大的胃口。”
一位算法工程师向记者指出,GPU之所以快,是因为它天生就能并行处理任务。如果数据存在“顺序”,无法并行,那么还得用回CPU。
“很多时候既然硬件是固定的,我们会想办法从软件层,把存在顺序的数据,变为并行的数据。譬如语言模型中,文字是连续的,靠一种‘导师驱动’的训练模式就可以转换为并行训练。
但肯定不是所有模型都可以这么做,譬如深度学习中的‘强化学习’不太适合用GPU,而且也很难找到并行方式。”
由此来看,学术圈不少人甚至喊出“GPU阻碍了人工智能的创新”这句话,并不是耸人听闻。
深度学习的4个发展脉络,制图:宇多田
“深度学习”,这个近10年来机器学习领域发展最快的一个分支,其神经网络模型发展之快、类型之广,只靠GPU这块硬件的“一己之力”是很难追上其复杂运算脚步的。
Graphcore 回复了记者一份更为详尽的答案。他们认为,对于深度学习中除去CNNs的另外几个分支,特别是循环神经网络(RNN)与强化学习(RL),让很多开发者的研究领域受到了限制。
譬如,用强化学习做出了“阿尔法狗”的英国AI公司 Deepmind,很早就因为GPU的计算局限问题而关注Graphcore,其创始人Demis Hassabis最后成为了Graphcore的投资人。
“很多企业产品部门的开发者把需求(特别是延时和吞吐量的数据指标)交给算力平台部门时,他们通常会拒绝说 ‘GPU 目前不够支持这么低的延时和这么高的吞吐量’。
主要原因就在于,GPU的架构更适用于‘静态图像分类与识别’等拥有高稠密数据量的计算机视觉(CV)任务,但对数据稀疏的模型训练并不是最好的选择。
而跟文字相关的“自然语言处理”(NLP)等领域的算法,一方面数据没那么多(稀疏),另一方面,这类算法在训练过程中需要多次传递数据,并迅速给出阶段性反馈,以便为下一步训练提供一个便于理解上下文的语境。”
换句话说,这是一个数据在持续流动和循环的训练过程。