摘要:5月29日信息,根据市场研究机构TrendForce公布的最新报告显示, 预计2023年AI服务器(含搭载GPU、FPGA、ASIC 等)出货量近 120万台,同比增长38.4%,占整体服务器出货量近 9%,预计到2026年占比将提升至15%,同时上调2022~2026年AI服务器出货量年复合成长率至 22%。另外,预计AI服务器芯片2023年出货量将增长 46%。
5月29日信息,根据市场研究机构TrendForce公布的最新报告显示, 预计2023年AI服务器(含搭载GPU、FPGA、ASIC 等)出货量近 120万台,同比增长38.4%,占整体服务器出货量近 9%,预计到2026年占比将提升至15%,同时上调2022~2026年AI服务器出货量年复合成长率至 22%。另外,预计AI服务器芯片2023年出货量将增长 46%。
TrendForce表示,英伟达(NVIDIA)GPU为AI服务器市场搭载的主流芯片,市占率约60%~70%,其次为云端业者自研的AISC芯片,市占率超过20%。观察NVIDIA市占率高的要原因有三:
第一,不论美系或中系云端服务业者(CSP),除了采购NVIDIA A100与A800,下半年需求也陆续导入NVIDIA H100与H800,尤其是新的H100与H800平均销售单价约为前代A100与A800的2~2.5倍,再加上NVIDIA积极销售自家整体解决方案。
第二,高端GPU A100及H100的高获利模式也是关键,NVIDIA旗下产品在AI服务器市场已拥有主导权优势,TrendForce研究称,H100本身价差也依买方采购规模,会产生近5千美元差距。
第三,下半年ChatGPT及AI计算风潮将持续渗透各专业领域(云端/电商服务、智能制造、金融保险、 智慧医疗及智能驾驶辅助等)市场,同步带动每台搭配4~8张GPU的云端AI,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,今年搭载A100及H100的AI服务器出货量年增率将超过50% 。
此外,从高端GPU搭载的HBM内存来看,NVIDIA高端GPU A100、H100主要采用的是HBM2e、HBM3内存。以今年H100 GPU来说,搭载HBM3技术规格,传输速度也较HBM2e快,提升整体AI服务器系统计算性能。随着高端GPU如NVIDIA A100、H100,AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce预估2023年HBM需求量将年增58%,2024年有望再增长约30%。
编辑:芯智讯-林子