8月27日消息,在近日召开的Hot Chips 2024大会上,IBM宣布推出针对AI时代的下一代企业计算产品,包括全新Telum II处理器和Spyre AI加速器,预计这两款芯片都将于2025年上市。
Telum II处理器
早在2021年,IBM就推出了第一代的Telum处理器,当时就采用了全新的核心构架,并针对AI加速进行优化。具体来说,该芯片采用三星7nm制程技术制造,核心面积为530mm,内部有225亿个晶体管,8核心16线程的配置,主频超过5GHz。由于Telum处理器是IBM z16大型机计划成功的关键,所以随着客户需求的变化,IBM需要持续升级该系列芯片,因此推出了性能更强、更适合AI任务的Telum II处理器。
据介绍,Telum II处理器采用了更先进的三星5nm HPP制程技术制造,核心面积为600mm,拥有430亿个晶体管,虽然还是8核心16线程的配置,但是对于核心分支预测进行了优化改进,比如将寄存器数控从128提高到了160个,改进了存储回写和地址转换,叠加制程工艺的提升,使得核心面积减少了20%,功耗降低了15%。
同样,得益于三星5nm制程以及CPU核心优化,Telum II处理器的CPU核心主频也提升到了5.5GHz,整体性能提升了20%。
Telum II处理器还采用了一个新的电压控制环路,可以帮助CPU内核可以稳定的运行在5.5GHz,并且功耗可以降低18%。
另外,Telum II处理器内部还配备了10个36MB的L2缓存,整体缓存容量达到了360MB,较第一代的Telum处理器增加了40%。此外,每个drawer还拥有360MB的虚拟L3缓存和2.88GB的虚拟L4缓存。
Telum II处理器内部还集成了全新I/O加速单元DPU,并接在L2Cache上,而不是放在PCIe总线后面,提高了50%的I/O密度来优化数据处理。IBM表示,该处理器这一进步提高了 IBM Z 的整体效率和可扩展性,使其非常适合处理当今企业的大规模 AI 工作负载和数据密集型应用程序。
该DPU拥有四组八个微控制器,并运行IBM自己的定制协议。还有PCIe Gen5 x16接口。一个完整的系统可以支持多达192个PCIe卡,12个I/O扩展和16个PCIe插槽等。
为了应对AI加速计算需求,Telum II处理器内部还集成了AI加速器,支持CISC指令集,支持Int8、FP16数据类型的计算加速,单芯片算力达24TOPS,可以运行大语言模型,可实现低延迟、高吞吐量的交易内 AI 推理,例如增强金融交易期间的欺诈检测,并使每个芯片的AI计算能力比上一代提高了四倍。每个drawer集群(8个AI内核)可以将算力提升到192TOPS。
Spyre AI加速器
Spyre AI加速器是基于三星5nm LPE制程技术制造,核心面积为330mm,拥有260亿个晶体管,是一款专门面向企业级的AI加速器,可以为复杂的AI模型和生成式AI应用提供可扩展的AI加速功能。
具体来说,Spyre AI加速器拥有32个计算核心,与Telum II整合的AI内核拥有类似的构架,支持 int4、int8、fp8 和 fp16 数据类型,整体算力超过300TOPS,适用于低延迟和高吞吐量 AI 应用。每个计算核心还拥有2MB暂存,拥有超过55%的有效TOPS利用率。内存方面,支持LPDDR5。
Spyre AI加速器的核心结构:
8个Spyre AI加速器可以通过 75 瓦 PCIe 适配器连接成为一个集群,整个集群可以支持1TB的内存,带来高达1.6TB/s的带宽。
IBM表示,Telum II处理器 和 Spyre AI加速器可以协同工作,形成一个可扩展的架构,以支持 AI 建模的集成方法,即将多个机器学习或深度学习 AI 模型与编码器 LLM 相结合。通过利用每个模型架构的优势,与单个模型相比,集成 AI 方案可以提供更准确和稳健的结果。
“我们强大的多代路线图使我们能够在技术趋势方面保持领先地位,包括不断增长的 AI 需求,”IBM Z 和 LinuxONE 产品管理副总裁 Tina Tarquinio 说。“Telum II 处理器和 Spyre 加速器旨在提供高性能、安全且更节能的企业计算解决方案。经过多年的开发,这些创新将引入我们的下一代 IBM Z 平台,以便客户可以大规模利用 LLM 和生成式 AI。”
据介绍,Telum II 处理器将成为为 IBM 下一代 IBM Z 和 IBM LinuxONE 平台提供支持的中央处理器。它预计将于 2025 年提供给 IBM Z 和 LinuxONE 客户。IBM Spyre Accelerator 目前处于技术预览阶段,预计也将于 2025 年推出。
编辑:芯智讯-浪客剑