浪潮是全球领先的AI计算力专业厂商,拥有业界最丰富的AI服务器产品阵列,致力于通过创新设计,为用户提供适用于不同领域、不同场景的领先计算设备,以更好地应对当前海量数据爆发与复杂模型所带来的巨大的计算挑战,助推实现AI化转型。据国际咨询机构IDC数据,浪潮AI服务器连续多年在中国的市场份额超过50%。下面我们就一起回顾浪潮推出的极致设计的AI服务器产品。
最快AI训练服务器NF5488A5
2020年,浪潮全新发布自研的新一代AI服务器NF5488A5,提供极致的AI性能和超高速带宽,支持图像视频、语音识别、金融分析、智能客服等典型AI应用场景,帮助AI用户高效完成AI基础设施和开发环境的构建,缩短开发周期,显著提升AI开发和应用效率。这款AI服务器在最新公布的MLPerf全球权威AI测试榜单中,仅用时33.37分钟,就在包含128万张图片的ImageNet数据集上完成Resnet50模型的训练,相当于每秒训练23000多张图片,单机计算性能排名第一。
NF5488A5单机训练性能可达5 PetaOPS,相比上一代服务器计算性能提升234%。两年前Facebook的科学家用32台GPU服务器、256块GPU花了1个小时完成了ImageNet上的Resnet50训练,而现在仅需一台NF5488A5,即可在33分钟完成同样的训练,单台设备训练效率提升近60倍。同时,浪潮优化了NF5488A5的拓扑结构,采用NUMA绑定策略,可实现CPU与最近GPU的指定通信,大幅提升CPU与GPU之间的数据传输效率,实现更低的数据传输延迟和更高的带宽,满足各种AI负载高效数据通信需求。
全球首款在 2U 空间内高速互联集成 8 颗最高性能 GPU 加速器的服务器AGX-2
2017年,浪潮在GTC大会期间发布了加速人工智能计算的超高密度服务器AGX-2,它将是全球首款在2U空间内高速互联集成8颗最高性能GPU加速器的服务器,全面加速人工智能和科学工程计算等领域的研究应用效率。
AGX-2在2U空间内支持部署8块NVLink或PCI-E 接口的NVIDIA Tesla P100 GPU,并在业界率先支持NVLink 2.0和最新发布的NVIDIA Tesla V100, GPU间互联带宽高达150GB/s。AGX-2具备良好的I/O扩展能力,提供8块NVMe/SAS/SATA热插拔硬盘,可支持最多4块100Gbps的EDR InfiniBand接口卡的高速集群互联;AGX-2不仅支持通常的风冷散热方式,还可支持片上水冷以提供更高的计算能效比。
最强 AI 超级服务器AGX-5
2018年,在2018人工智能计算大会AICC上,浪潮发布了AI计算性能高达每秒2千万亿次的AI超级服务器AGX-5,这是全球最强大的AI计算主机之一。
浪潮创新研发设计的AI服务器AGX-5,可在单机内支持16颗高速NVSwitch无阻塞互联的Tesla V100 Tensor Core GPUs和新一代GPU加速器,提供2 PFlops的强大单机AI计算性能,与之前同类GPU服务器相比,AGX-5可支持4倍超大规模深度神经网络模型且训练速度提高10倍。AGX-5在计算性能、芯片互联、数据吞吐等多方面实现了极大提升,由此带来AI计算能力的革命性的进步,为全球致力于领先AI科技的商业公司、科研创新机构提供前所未见的AI创新加速体验。
最强Transformer 训练服务器NF5488M5
2019年,浪潮在2019 GPU技术大会(GTC2019)上发布AI服务器NF5488M5,在业界首次实现了4U空间内集成8颗通过高速NVSwitch无阻塞全互联的最新一代NVIDIA Tesla V100 Tensor Core 32GB GPUs,高扩展、高性能、高能效,可灵活部署,AI计算性能可达每秒一千万亿次,适用于图像视频、语音识别、金融分析、智能客服等典型AI应用场景。
NF5488M5还配置2颗28核的顶配CPU,配合3UPI连接设计,提供顶级通用计算性能。4U尺寸、6KW供电设计使其适用于更广泛的数据中心部署环境,特别适合于功耗受限的机柜上架场景。同时使用更加灵活的集群部署方案,能实现从硬件到应用的集成部署。
Transformer是主流 NLP模型,参数规模可达数亿,对计算、通信的要求非常高。性能数据显示,相比同类服务器,NF5488M5大幅提升了Transformer的训练性能,GLUE 基准训练至 80.4%的时间相比同类产品大幅减少 67%。NF5488M5进一步丰富和优化用户的AI基础架构选择,帮助用户缩短AI模型开发周期,加速AI技术创新与应用落地。