展会信息港展会大全

2024 年十大人工智能芯片制造公司
来源:互联网   发布日期:2024-05-23 14:52:56   浏览:4410次  

导读:本文由半导体产业纵横(ID:ICVIEWS)编译自aimultiple 本文将介绍顶尖的AI芯片供应商,帮助企业选择合适的芯片。 如下图所示,神经网络的参数数量(即宽度和深度)以及模型大小都在增加。为了构建更好的深度学习模型和强大的人工智能应用程序,组织需要增加...

2024 年十大人工智能芯片制造公司

本文由半导体产业纵横(ID:ICVIEWS)编译自aimultiple

本文将介绍顶尖的AI芯片供应商,帮助企业选择合适的芯片。

2024 年十大人工智能芯片制造公司

如下图所示,神经网络的参数数量(即宽度和深度)以及模型大小都在增加。为了构建更好的深度学习模型和强大的人工智能应用程序,组织需要增加计算能力和内存带宽。

2024 年十大人工智能芯片制造公司

强大的通用芯片(例如CPU)无法支持高度并行的深度学习模型。因此,支持并行计算能力的人工智能芯片的需求越来越大,麦肯锡认为,这一趋势将持续下去。

然而,即使是拥有众多世界级工程师和强大研究背景的英特尔,也需要三年的时间来开发自己的AI芯片。因此,对于大多数公司来说,从这些供应商购买芯片或从云GPU提供商租用容量是开发强大的深度学习模型的唯一途径。本文将介绍顶尖的AI芯片供应商,帮助企业选择合适的芯片。

领先的人工智能芯片生产商有哪些?

1.英伟达

自 20 世纪 90 年代以来,英伟达 一直在为游戏领域生产图形处理单元 (GPU)。PlayStation3 和 Xbox均使用 Nvidia 图形阵列。该公司还生产Volta、Xavier和Tesla等人工智能芯片。得益于生成式AI热潮,英伟达在2023年取得了优异的成绩,估值达到万亿,巩固了其GPU和AI硬件市场领导者的地位。

英伟达 的芯片组旨在解决各个行业的业务问题。例如,Xavier 是自动驾驶解决方案的基础,而 Volta 则针对数据中心。DGX A100和 H100 是 英伟达 成功的旗舰 AI 芯片,专为数据中心的 AI 训练和推理而设计。英伟达 发布了H200、B200 和 GB200 芯片;HGX 服务器,例如结合了 8 个此类芯片的 HGX H200 和 HGX B200;NVL 系列和 GB200 SuperPod 将更多芯片组合成大型集群。

云 GPU

对于云上的 AI 工作负载,Nvidia 几乎处于垄断地位,大多数云厂商只使用 Nvidia GPU 作为云 GPU。Nvidia 还推出了DGX Cloud产品,直接向企业提供云 GPU 基础设施。

2.AMD

AMD是一家拥有CPU、GPU和AI加速器产品的芯片制造商。例如,AMD的Alveo U50数据中心加速卡拥有500亿个晶体管。Accelerator 可以运行 1000 万个嵌入数据集并在毫秒内执行图算法。

AMD 于 2023 年 6 月推出了用于 AI 训练工作负载的 MI300,并将与 NVIDIA 争夺该市场的市场份额。正如ChatGPT所表明的那样,生成式 AI的兴起,需求迅速增加,导致 Nvidia 的 AI 硬件难以采购,因此有初创公司、研究机构、企业和科技巨头在 2023 年采用了 AMD 硬件。

AMD 还与 Hugging Face 等机器学习公司合作,使数据科学家能够更有效地使用他们的硬件。

软件生态系统至关重要,因为硬件性能很大程度上依赖于软件优化。例如,AMD 和 NVIDIA 在 H100 和 MI300 基准测试上存在公开分歧。分歧的焦点是基准测试中使用的包和浮点。根据最新的基准测试,对于 70B LLM 的推理,MI300 似乎更好或与 H100 相当。

3.英特尔

英特尔是CPU市场最大的厂商,拥有悠久的半导体开发历史。2017年,英特尔成为全球第一家销售额突破10亿美元大关的AI芯片公司。

英特尔的至强 CPU 适用于各种工作,包括数据中心的处理,并对该公司的商业成功产生了影响。

Gaudi3是英特尔最新的AI加速处理器。自 2024 年 4 月公开发布以来,目前对其性能的基准测试有限。

4.Alphabet/谷歌云平台

GoogleCloud TPU是专门构建的机器学习加速器芯片,为翻译、照片、搜索、助手和 Gmail 等 Google 产品提供支持。它也可以通过 Google Cloud 使用。谷歌于 2016 年发布了 TPU。最新的 TPU 是 Trillium,第六代 TPU。

Edge TPU是 Google Alphabet 的另一款加速器芯片,比一美分硬币还要小,专为智能手机、平板电脑和物联网设备等边缘设备而设计。

5.AWS

AWS 生产用于模型训练的 Tranium 芯片和用于推理的 Inferentia 芯片。尽管AWS是公共云市场的领导者,但它在谷歌之后开始构建自己的芯片。

6、IBM

IBM 将于 2022 年发布最新的深度学习芯片人工智能单元 (AIU)。IBM 正在考虑使用这些芯片为其 watson.x 生成式人工智能平台提供支持。

AIU 基于“ IBM Telum 处理器”构建,该处理器为 IBM Z 大型机服务器的 AI 处理能力提供支持。Telum 处理器在推出时突出的用例包括欺诈检测。

IBM 还证明,合并计算和内存可以提高效率。这些已在 NorthPole 处理器原型中得到演示。

7、阿里巴巴

阿里巴巴生产含光800等推理芯片。

领先的人工智能芯片初创公司有哪些?

这里还想介绍一些AI芯片行业的初创公司,他们的名字在不久的将来可能会经常听到。尽管这些公司刚刚成立不久,但它们已经筹集了数百万美元。

2024 年十大人工智能芯片制造公司

图2:AI芯片制造商的融资总额,来源:Statista

8.SambaNova系统

SambaNova Systems 成立于 2017 年,目标是为大批量生成型 AI 工作负载开发高性能、高精度的硬件软件系统。该公司开发了SN40L芯片并筹集了超过11亿美元的资金。

值得注意的是,SambaNova Systems 还将其平台出租给企业。SambaNova Systems 的人工智能平台即服务方法使其系统更易于采用,并鼓励循环经济的硬件重用。

9. Cerebras Systems

Cerebras Systems成立于 2015 年。2021 年 4 月,该公司宣布推出全新 AI 芯片型号 Cerebras WSE-2,拥有 85 万个内核和 2.6 万亿个晶体管。毫无疑问,WSE-2 比 WSE-1 有了很大改进,WSE-1 拥有 1.2 万亿个晶体管和 40 万个处理核心。

Celebra的系统与阿斯利康和葛兰素史克等多家制药公司合作,因为WSE-1的有效技术加速了遗传和基因组研究,缩短了药物发现的时间。

10. Groq

Groq 由前谷歌员工创立。该公司代表LPU,一种人工智能芯片架构的新模型,旨在让公司更容易采用他们的系统。该初创公司已筹集约 3.5 亿美元,并生产了首批型号,例如 GroqChip处理器、GroqCard 加速器等。

该公司专注于 LLM 推理,并发布了 Llama-2 70B 的基准测试。

该公司表示,2024 年第一季度,有 7 万名开发人员在其云平台上注册,并构建了 1.9 万个新应用程序。

2022 年 3 月 1 日,Groq收购了Maxeler,后者为金融服务提供高性能计算 (HPC) 解决方案。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

赞助本站

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港