当地时间8月8日,英伟达首席执行官黄仁勋在洛杉矶举行的SIGGRAPH大会上宣布推出GH200 Grace Hopper超级芯片平台,该平台将成为世界上第一个配备HBM3e(High Bandwidth Memory 3e)内存的AI芯片平台。
据悉,新款GH200 Grace Hopper 超级芯片平台由72核的Grace CPU和GH100 Hopper 计算GPU组成。去年3月,英伟达推出了第一代的Grace Hopper超级芯片平台,首次将CPU和GPU融合在一个平台上。
与之前版本最大的区别就是,使用了HBM3e内存。HBM3e 内存是一种新型的高带宽内存技术,可以在更小的空间内提供更高的数据传输速率。
性能提升方面,相比上一代,新平台不仅内存容量提升了3.5倍,带宽也增加了3倍;相比主流的H100,其内存也有1.7倍的提升,传输频宽则增加1.5倍。这意味着,新款GH200 Grace Hopper 超级芯片平台将更适用于人工智能开发,尤其是大模型的训练。
今年6月,AMD也推出了搭载HBM3内存的数据中心GPUInstinct MI300X。此次英伟达再次出手,用意就是进一步稳固在人工智能芯片上的地位。
同时,英伟达当日还推出了NVIDIA AI Workbench以及通过生成式AI和OpenUSD升级的NVIDIA Omniverse。此外,英伟达还宣布与AI开源社区Hugging Face合作,将把生成式AI超级计算能力交付给数百万开发者,为其构建大型语言模型和AI应用提供支持。
黄仁勋表示:“为了使这种能力普惠,我们必须使其能够在几乎所有地方运行。让所有人都能参与生成式 AI。”
如今,算力已成为全球科技企业新一轮AI竞争的“入场券”。英伟达借助GPU在算力上的绝对领先优势,可以说风光无限。虽然AMD、英特尔近期也有新品,以加快追赶步伐,但毕竟英伟达的GPU才是业界公认的标配,且具有完整的软件生态,有助于开发者训练大模型及开发AI应用。