展会信息港展会大全

英伟达发布性能可提升90%的顶级AI芯片H200,当日股价一度涨1.4%
来源:互联网   发布日期:2023-11-14 19:33:50   浏览:4265次  

导读:图片来源:视觉中国 当地时间11月13日,英伟达发布最新AI芯片H200 Tensor Core GPU,配备 141 GB 显存,可为生成式AI和高性能计算工作负载处理海量数据。据官方披露,与英伟达H系列上一代 H100 芯片相比,容量近乎翻倍,性能提升高达 60% 至 90%。而上一代H1...

英伟达发布性能可提升90%的顶级AI芯片H200,当日股价一度涨1.4%

图片来源:视觉中国

当地时间11月13日,英伟达发布最新AI芯片H200 Tensor Core GPU,配备 141 GB 显存,可为生成式AI和高性能计算工作负载处理海量数据。据官方披露,与英伟达H系列上一代 H100 芯片相比,容量近乎翻倍,性能提升高达 60% 至 90%。而上一代H100芯片,即全球关注度最高的人工智能初创公司OpenAI用来训练大语言模型GPT-4的芯片。

广义上讲,只要能运行AI算法的处理器,都可称为AI芯片,包括GPU、FPGA、ASIC等。狭义上的AI芯片面向AI算法设计,常牺牲一定的通用性,来换取AI算法专用性能的提升。

据《新智元》报道,英伟达H200是首款采用HBM3e扩展版高带宽储存器的GPU,显存高达141GB,相比于上一代H100的80G,近乎翻倍。H200与H100基于相同的Hopper架构,可以加速基于Transformer架构的LLM和其他深度学习模型。

H200的性能提升最主要体现在大模型的推理性能表现上,其处理Llama2 70B大语言模型的速度是H100的近乎两倍。H200处理高性能计算(HPC)应用程序的性能相比上代也有近20%的提升。

显存带宽对于 HPC 应用程序很关键,可以实现更快的数据传输,减少复杂的处理瓶颈。对于模拟、科学研究和人工智能等内存密集型 HPC 应用,H200 更高的内存带宽可确保高效地访问和操作数据,与 CPU 相比,获得结果的时间最多可加快 110 倍。

另外,据英伟达官网数据,H200也提高了能源利用效率,其能耗相比于H100减少了约50%。

目前,英伟达的全球合作伙伴服务器制造商生态系统包括华擎 Rack、华硕、戴尔科技、Eviden、技嘉、慧与、英格拉科技、联想、QCT、Supermicro、纬创资通和纬颖科技等,可以直接使用 H200 更新其现有系统。除了英伟达自己投资的CoreWeave、Lambda和 Vultr 之外,亚马逊网络服务、谷歌云、微软 Azure 和甲骨文云等云服务提供商将从明年开始首批部署H200芯片。

H200芯片发布当天,英伟达股票上涨0.59%,盘中一度涨1.4%。英伟达官网目前尚未披露H200芯片的售价。据CNBC报道,上一代芯片H100 于今年早些时候开始量产,每个 GPU 的售价约为 25,000 美元(约合182,000人民币)。

据《新智元》报道,英伟达将H100 GPU和Grace CPU整合在一起的超级芯片GH200,在新一代H200芯片的加持下,将为全球各地的超级计算中心提供总计约200 Exaflops的AI算力。德国尤里希超级计算中心、日本先进高性能计算联合中心、德克萨斯高级计算中心、美国国家超级计算应用中心等世界大型超算中心,都将使用英伟达GH200构建超级计算机。

据外媒报道,业内专家表示AMD即将推出的 MI300加速器有望成为有竞争力的AI产品。AMD 将于12月6日举办“推进人工智能”主题演讲,揭晓代号为 MI300 的Instinct 加速器系列。

AI芯片的研发与跨国销售,也处于国际政治漩涡的中心。今年10月,美国收紧对中国的AI芯片出口,美国政府要求英伟达向中国客户出售A100等芯片前需获取许可证,英伟达和英特尔在中国市场受阻。

目前国内AI芯片相关厂商主要包括寒武纪、景嘉微、云天励飞、恒烁股份、海光信息、复旦微电、安路科技、澜起科技、航宇微、国芯科技、紫光国微、国科微等,其中寒武纪的ASIC芯片是国内AI芯片龙头,景嘉微的GPU芯片是国内GPU龙头。

此外,还有其他中国科技巨头和创业公司也已经在AI芯片领域有一定布局。

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港