展会信息港展会大全

AMD的AI策略与Intel和Nvidia有何不同?
来源:互联网   发布日期:2019-08-24   浏览:77次  

导读:Hot Chips 31 本周在美国硅谷举办,两款最大的芯片发布引人注意。分别是 Cerebras 最大的深度学习芯片 WSE,还有赛灵思发布全球最大的 FPGA。Intel 发布的两款 AI 芯片 Nervana NNP-T/NNP-I 同样备受关注。不过,AMD 在 Hot Chips 期间并没有获得 ......

Hot Chips 31 本周在美国硅谷举办,两款最大的芯片发布引人注意。分别是 Cerebras 最大的深度学习芯片 WSE,还有赛灵思发布全球最大的 FPGA。Intel 发布的两款 AI 芯片 Nervana NNP-T/NNP-I 同样备受关注。不过,AMD 在 Hot Chips 期间并没有获得巨大的关注,这或许是因为在当今 AI 大热的情况下,他们采用 观望式 的 AI 策略。

Intel、AMD 和 NVIDIA 如何预估 AI 市场?

NVIDIA 预计,其数据中心和人工智能潜在市场(TAM)到 2023 年将达到 500 亿美元。这包括 HPC(高性能计算),DLT(深度学习训练)和 DLI(深度学习推理)。

英特尔估计,其 DLT 和 DLI 潜在市场在 2020 年将达到 460 亿美元。

AMD 尚未发布任何关于深度学习潜在市场的预测,因为它更专注于从英特尔和 NVIDIA 获得市场份额。因此,也没有看到 AMD 有专注于人工智能的芯片。

不过,AMD 首席执行官 Lisa Su 表示,我们正在努力成为人工智能领域更重要的参与者。

Lisa Su:CPU 的局限性

任何计算性能的讨论都始于摩尔定律,但摩尔定律正在放缓。摩尔定律指出,随着芯片尺寸缩小和晶体管密度增加,计算性能将每两年翻一番。

在 AnandTech Hot Chips 31 的报道指出,Lisa Su 在主题演讲中解释说,AMD 通过各种方式改善了 CPU 的性能,包括工艺制程、芯片面积、TDP(热设计功耗)、电源管理、微体系结构和编译器。

先进工艺制程的贡献最大,这使得 CPU 的性能提升了 40%。增加芯片尺寸也可以带来两位数性能的提升,但这不符合成本效益。

AMD 通过微体系架构将 EPYC Rome 服务器 CPUIPC(每个周期的指令)在单线程和多线程工作负载中分别提升了 23% 和 15%。高于行业平均5%-8% 的水平。上述所有方法在两年半内都会使性能翻倍。

Lisa Su:人工智能所需的加速计算

Lisa Su 表示,一方面,摩尔定律正在放缓。另一方面,世界上最快的超级计算机的性能每 1.2 年翻一番。这意味着过去十年的解决方案将失效。

该行业目前的需求是优化系统的各个部分,使其成为人工智能工作负载的理想选择。她解释说,ASIC 和 FPGA 的每瓦特性能最高,CPU 最低。通用 GPU 在每瓦性能方面介于 CPU 和 FPGA 之间。

Lisa Su 指出,每个人工智能工作负载都有不同的计算要求。互连技术是解决方案,因为它将不同的部分互连到同一个系统。她用以下例子解释了这一点:

NAMD(纳米级分子动力学)工作负载取决于 GPU

NLP(自然语言处理)工作负载在 CPU、GPU、内存带宽和连接性之间保持平衡

业界使用传统方法提高了 CPU 和 GPU 的性能。Lisa Su 强调,业界应该通过关注互连,I/O、内存带宽、软件效率和软硬件协同优化来提高性能。

AMD 的 AI 策略

Lisa Su 表示,AMD 已采用 CPU / GPU /互连策略来挖掘人工智能和 HPC 的机会。她说,AMD 将在 Frontier 超级计算机中使用其所有技术。该公司计划为实现超级计算机全面优化其 EYPC CPU 和 Radeon Instinct GPU。它将通过其 Infinity Fabric 总线技术进一步增强系统性能,并通过其 ROCM(Radeon Open Compute)软件工具解锁性能。

与英特尔和 NVIDIA 不同,AMD 没有专用的人工智能芯片或专用的加速器。尽管如此,苏还指出, 我们绝对会看到 AMD 在人工智能方面是一个很重要的参与者。 AMD 正在考虑是否要建立一个专用的 AI 芯片,这一决定将取决于人工智能如何发展。

Su 补充说,许多公司正在开发不同的人工智能加速器,如 ASIC、FPGA 和张量(Tensor)加速器。这些芯片将缩小到最可持续的状态,然后 AMD 将决定是否构建可以广泛应用的加速器。

与此同时,AMD 将与第三方加速器制造商合作,并通过其 Infinity Fabric 互连将其芯片与自己的 CPU / GPU 连接。这个策略类似于其光线跟踪策略,NVIDIA 去年推出了实时光线跟踪,但 AMD 并没有急于推出这项技术。不过,Su 表示 AMD 将在生态系统完善并且该技术被广泛采用的情况下引入光线跟踪技术。

鉴于 AMD 是一个相对较小的玩家,与拥有充足资源的大型玩家竞争,上述策略具有经济意义。在已经建立的市场中分享份额可以减少因采用率低而导致产品失败的风险,并保证最低的回报。

AMD AI 战略与英特尔和 NVIDIA 战略的不同

AMD 在开发 AI 芯片之前采用了观望态度。他们现在做的,是利用其现有技术来满足 AI 工作负载。

英特尔开发了全面的技术,包括 Xeon CPU、Optane 内存、Altera FPGA 和互连技术。也在开发独立 GPU Xe。在 Hot Chip 31 中,英特尔推出了专用于深度学习训练和深度学习推理的 Nervana AI 芯片。英特尔的芯片由自己生产,虽然这使英特尔能够更好地控制其技术,但需要大量的时间和资源。

NVIDIA 的 AI 策略是提供通用 GPU 以及可用于任何 AI 应用程序的 CUDA 软件支持。它还具有 NVLink 互连技术。英伟达正与合作伙伴共同探索人工智能新市场。虽然这种策略需要大量研究并且有很高的失败风险,但这些高风险也会带来高回报。

赞助本站

人工智能实验室

相关热词:

AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港