展会信息港展会大全

支持 AI 加速器大规模互联,Marvell 面向定制 XPU 推出 CPO 架构
来源:互联网   发布日期:2025-01-09 09:32:42   浏览:226次  

导读:IT之家 1 月 8 日消息,Marvell(IT之家注:美满电子)美国加州当地时间 6 日宣布面向下一代定制 XPU 设计推出CPO 共封装光学架构。采用 CPO 设计的 AI 加速器可将互联规模从目前单机架内的数十个扩展至多个机架上的数百个 XPU。Marvell 的定制 AI 加速器架构使用高速 SerDes、D2D 接口和先进封装架构,将 XPU 计算模块、HBM 内存和其它小芯片与其 3D 硅光子学引擎结合在同一基 ......

IT之家 1 月 8 日消息,Marvell(IT之家注:美满电子)美国加州当地时间 6 日宣布面向下一代定制 XPU 设计推出CPO 共封装光学架构。采用 CPO 设计的 AI 加速器可将互联规模从目前单机架内的数十个扩展至多个机架上的数百个 XPU

支持 AI 加速器大规模互联,Marvell 面向定制 XPU 推出 CPO 架构

Marvell 的定制 AI 加速器架构使用高速 SerDes、D2D 接口和先进封装架构,将 XPU 计算模块、HBM 内存和其它小芯片与其 3D 硅光子学引擎结合在同一基板上,实现了传统铜线连接百倍的 XPU 间最大互联距离,并具有更快的数据传输速率

Marvell 的 CPO 技术将光学元件直接集成到单个封装中,从而最大限度地减少了电气路径长度,进而显著降低了信号损失、增强了高速信号完整性、并最大限度地减少了延迟。此外这一设计还降低了数据链路受 EMI 干扰的影响、缩短了 BOM 清单、提升了能效表现。

Marvell 现有的 6.4Tb/s 3D 硅光子学引擎集成了数百个组件,可提供 32 条 200Gb/s电气和光学 I/O,能在单个器件内 2 倍的带宽和 I/O 密度,相较 100Gb/s 接口同类设备每比特功耗降低 30%。

Marvell 高级副总裁网络交换业务部总经理 Nick Kucharewski 表示:

AI 服务器的纵向扩展需要更高的信号速度和更远的连接距离,以支持前所未有的 XPU 集群规模。

对于利用更高的互连带宽和更长的传输距离来扩展性能(的发展路径)来说,将 CPO 器件集成到定制 XPU 中是合乎情理的下一步。

赞助本站

AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港