展会信息港展会大全

IBM自研AI芯片Telum已应用于Z16大型机,基于三星7nm工艺
来源:互联网   发布日期:2023-08-20 13:53:58   浏览:49443次  

导读:摘要:8月19日消息,面对人工智能(AI)加速计算,IBM在2022年就推出了自研的AIU架构的AI加速芯片Telum,用于其最新的IBM Z16大型主机,以满足企业级AI算力需求。 8月19日消息,面对人工智能(AI)加速计算,IBM在2022年就推出了自研的AIU架构的AI加速芯片Te...

摘要:8月19日消息,面对人工智能(AI)加速计算,IBM在2022年就推出了自研的AIU架构的AI加速芯片Telum,用于其最新的IBM Z16大型主机,以满足企业级AI算力需求。

IBM自研AI芯片Telum已应用于Z16大型机,基于三星7nm工艺

8月19日消息,面对人工智能(AI)加速计算,IBM在2022年就推出了自研的AIU架构的AI加速芯片Telum,用于其最新的IBM Z16大型主机,以满足企业级AI算力需求。

IBM 表示,基于其Telum 芯片的 IBM z16 大型主机能借助独特的方式,将 AI 推理与 IBM 安全可靠的大批量交易处理能力结合,然后将需要 AI 推理的工作交由 Telum 芯片执行,在 IT 史上首次实现了银行可大规模分析交易处理期间发生的诈欺行为。

IBM z16 每天可处理 3 千亿个推理请求,延迟时间仅 1 毫秒,帮助减少处理信用卡诈欺交易的时间与精力。对商家和发卡银行,可减少营收损失,因消费者为了避免信用卡错误拒付困扰,可能转使用别家信用卡。

据介绍,Telum 心片含 8 个处理器核心,具深度超标量乱序指令管道(A deep super-scalar out-of-order instruction pipeline),主频超过 5GHz,并针对异构企业级工作负载需求优化。重新设计的高速缓存和芯片互连基础架构为每个计算核心提供 32MB 缓存,可扩展到 32 个 Telum 芯片。双芯片模组设计含 220 亿个晶体管,17 层金属层线路总长度达 19 英里。Telum 是 IBM 研究院 AI 硬件中心技术研发的首款芯片,三星也是 IBM 在 7nm EUV 技术节点研发 Telum 处理器的技术研发合作伙伴。

IBM 指出,人工智能算力执行,x86 环境中仍以 GPU 与 CPU 为主。不过企业大型主机环境,采用Telum新片更具优势,不但为企业人工智能应用定制化环境,也更有信息安全防护能力。不过目前 Telum 芯片仅供 IBM z16 大型主机自用,并没有对外销售。

编辑:芯智讯-林子

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港