展会信息港展会大全

回顾2024英伟达GTC可圈可点的黑科技
来源:互联网   发布日期:2024-03-30   浏览:252次  

导读:“Hopper很棒,但我们需要更大的GPU”,英伟达新一代GPU Blackwell引爆全球。看看今年GTC几个可圈可点的硬科技。 首先是基于Blackwell架构的超级芯片GB200,这是一张AI加速卡,相比上一代GPU“Hopper”H100,除了同样采用台积电4nm制程工艺,晶体管 ......

“Hopper很棒,但我们需要更大的GPU”,英伟达新一代GPU Blackwell引爆全球。看看今年GTC几个可圈可点的硬科技。

首先是基于Blackwell架构的超级芯片GB200,这是一张AI加速卡,相比上一代GPU“Hopper”H100,除了同样采用台积电4nm制程工艺,晶体管集成从上一代800亿提升到2080亿个,精度更高。训练一个 1.8 万亿个参数的模型以前需要 8,000 个 Hopper GPU 和 15 兆瓦的电力。如今,2000 个 Blackwell GPU 就能完成这项工作,而耗电量仅为 4 兆瓦。真正实现了推理、训练一体化。

第二,是发布了搭载GB200系统构建的新一代AI超级计算机NVIDIADGXSuperPOD,老黄强调,Blackwell不是一个芯片,而是一个平台。为了给用户交付整体解决方案,从系统结构上做了整体提升。这个超级计算机可处理万亿参数模型,系统可扩展到数万 GB200 超级芯片,使得芯片间实现了高速互联

第三是新一代 NVLink 交换机,可让 576 个 GPU 相互连接,双向带宽达到每秒 1.8 TB。而此前,一个由 16 个 GPU 组成的集群有 60% 的时间用于相互通信,只有 40% 的时间用于实际计算。性能提升,能耗大幅下降,这无疑得益于对Mellanox的成功收购。

第四是,AI推理微服务NIMs(Nvidiainferencemicroservice)黄仁勋表示:英伟达的愿景是成为AI软件的“晶圆厂”。“未来软件开发或许要依靠NIMs功能,通过和AI聊天的形式调动一系列NIMs来完成训练、应用的部署。”而这些云原生微服务目录在CUDA平台上开发,包括NVIDIANIM微服务,可适用于NVIDIA及合作伙伴生态系统中20多个热门的AI模型进行推理优化,开发者部署时间从原来的几周缩短至几分钟,即可完成。

赞助本站

人工智能实验室

相关热词:

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港