9月18日消息,华为全联接2019大会上,华为副董事长胡厚发布了Atlas 900 AI训练集群。此次发布的Atlas 900 AI训练集群由数千颗腾910 AI处理器互联构成,是当前全球最快的AI训练集群,代表了当今全球的算力巅峰。其总算力达到256P~1024P FLOPS @FP16,相当于50万台PC的计算能力。
AI算力领先
Atlas 900 AI训练集群采用业界单芯片算力最强的腾910 AI处理器,每颗腾910 AI处理器内置32个达芬奇AI Core,单芯片提供比业界高一倍的算力。Atlas 900 AI训练集群将数千颗腾910 AI处理器互联,打造业界第一的算力集群。
腾910 AI处理器采用SoC设计,集成“AI算力、通用算力、高速大带宽I/O”,大幅度卸载Host CPU的数据预处理任务,充分提升训练效率。
最佳集群网络
Atlas 900 AI训练集群采用“HCCS、 PCIe 4.0、100G以太”三类高速互联方式,百TB全互联无阻塞专属参数同步网络,降低网络时延,梯度同步时延缩短10~70%。
在AI服务器内部,腾910 AI处理器之间通过HCCS高速总线互联;腾910 AI处理器和CPU之间以最新的PCIe 4.0(速率16Gb/s)技术互联,其速率是业界主流采用的PCIe 3.0(8.0Gb/s)技术的两倍,使得数据传输更加快速和高效。在集群层面,采用面向数据中心的CloudEngine 8800系列交换机,提供单端口100Gbps的交换速率,将集群内的所有AI服务器接入高速交换网络。
独创iLossless 智能无损交换算法,对集群内的网络流量进行实时的学习训练,实现网络0丢包与E2E μs级时延。
系统级调优
Atlas 900 AI训练集群通过华为集合通信库和作业调度平台,整合HCCS、 PCIe 4.0和100G RoCE三种高速接口,充分释放腾910 AI处理器的强大性能。
华为集合通信库提供训练网络所需的分布式并行库,通信库+网络拓扑+训练算法进行系统级调优,实现集群线性度>80%,极大提升了作业调度效率。
散热系统
传统数据中心多以风冷技术对设备进行散热,但在人工智能时代传统数据中心却面临非常大的挑战。高功耗器件比如CPU和AI芯片带来更大的热岛效应要求更高效的冷却方式。液冷技术可以满足数据中心高功率、高密部署、低PUE的超高需求。
Atlas 900 AI训练集群采用全液冷方案,创新性设计业界最强柜级密闭绝热技术,支撑>95%液冷占比。单机柜支持高达50kW超高散热功耗,实现PUE<1.1的极致数据中心能源效率。
另外,在空间节省方面,与8kW风冷机柜相比,节省机房空间79%。极致的液冷散热技术满足了高功率、高密设备部署、低PUE的需求,极大地降低了客户的TCO。
据了解,华为已在华为云上部署了一个Atlas 900 AI训练集群,集群规模为1024颗腾910 AI处理器。基于当前最典型的“ResNet-50 v1.5模型”和“ImageNet-1k数据集”,Atlas 900AI训练集群只需59.8秒就可完成训练,排名全球第一。
“ImageNet-1k数据集”包含128万张图片,精度为75.9%,在同等精度下,其他两家业界主流厂家测试成绩分别是70.2s和76.8s,Atlas 900 AI训练集群比第2名快15%。
Atlas 900 AI集群主要为大型数据集神经网络训练提供超强算力,可广泛应用于科学研究与商业创新,让研究人员更快地进行图像、视频和语音等AI模型训练,让人类更高效地探索宇宙奥秘、预测天气、勘探石油和加速自动驾驶的商用进程。(静静)