展会信息港展会大全

无问芯穹千卡规模异构芯片混训平台:让天下没有难用的AI算力
来源:互联网   发布日期:2024-07-05 09:47:22   浏览:5922次  

导读:筑基面向MxN生态格局的AI Native基础设施。 本文为IPO早知道原创 作者|Stone Jin 据IPO早知道消息,在7月4日举行的2024年世界人工智能大会AI基础设施论坛上,无问芯穹联合创始人兼CEO夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算...

无问芯穹千卡规模异构芯片混训平台:让天下没有难用的AI算力

筑基面向MxN生态格局的AI Native基础设施。

本文为IPO早知道原创

作者|Stone Jin

据IPO早知道消息,在7月4日举行的2024年世界人工智能大会AI基础设施论坛上,无问芯穹联合创始人兼CEO夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了97.6%。同时,夏立雪宣布无问芯穹Infini-AI云平台已集成大模型异构千卡混训能力,是全球首个可进行单任务千卡规模异构芯片混合训练的平台,具备万卡扩展性,支持包括AMD、华为腾、天数智芯、沐曦、摩尔线程、NVIDIA六种异构芯片在内的大模型混合训练。7月起,通过试训申请的用户,已可在Infini-AI上一键发起700亿参数规模的大模型训练。

就在4个月前,无问芯穹Infini-AI大模型开发与服务云平台宣布首次公测,已有智谱AI、月之暗面、生数科技等大模型公司客户在Infini-AI上稳定使用异构算力,还有20余家AI Native应用创业公司在Infini-AI上持续调用各种预置模型API,使用无问芯穹提供的工具链开发自身业务模型。此次发布全球首个可进行千卡规模异构芯片混训的平台,不仅是无问芯穹在异构计算优化与集群系统设计方面的深厚底蕴和卓越技术的实力体现,同时也是无问芯穹秉承“MxN”中间层生态理念的重要成果。

作为大模型生命周期中不可或缺的两个阶段,训练和推理均需要强大的计算资源支撑。然而,与国际上模型层与芯片层“相对集中”的格局相比,中国的模型层与芯片层更加“百花齐放”。然而,大量的异构芯片也形成了“生态竖井”,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。

无问芯穹千卡规模异构芯片混训平台:让天下没有难用的AI算力

据不完全统计,宣布拥有千卡规模的中国算力集群已不少于100个,出于诸多缘由,比如过度依赖单一硬件平台可能会使企业面临供应链风险,又比如国产芯片的性能快速提升为集群方提供了多种选择,绝大部分集群已经或正在从同构转向异构。“生态竖井”的存在让大多数企业和开发者对此望而却步,即便算力集群众多,也难以实现有效的整合与利用,这无疑是对算力资源的浪费。“生态竖井”不仅成为构建AI Native基础设施的最大难点,也是当前大模型行业面临“算力荒”的重要原因。

构建适应多模型与多芯片格局的AI Native基础设施,无问芯穹的底层解法是,提供高效整合异构算力资源的好用算力平台,以及支持软硬件联合优化与加速的中间件,让异构芯片真正转化为大算力。这一系列研、产进展背后,是无问芯穹研发团队在异构芯片计算优化与集群系统设计上的强大实力支撑。近日,无问芯穹与清华、上交的联合研究团队发布了HETHUB,这是一个用于大规模模型的异构分布式混合训练系统,这是业内首次实现六种不同品牌芯片间的交叉混合训练,且工程化完成度高。夏立雪介绍,这项技术工程化的初衷,是希望能够通过整合更多异构算力,继续推高大模型技术能力的上限,同时通过打通异构芯片生态,持续降低大模型应用落地成本。

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港