展会信息港展会大全

英伟达CEO黄仁勋:我们五年前就押注AI,只是没人知道
来源:互联网   发布日期:2023-08-10 09:14:28   浏览:19450次  

导读:划重点 1 英伟达CEO黄仁勋在SIGGRAPH大会上发表主题演讲时透露,该公司早在2018年就开始押注人工智能,那时很少有人意识到此举的重要意义。 2 黄仁勋表示,大语言模型在未来几乎处于一切事物的前沿。从视觉效果到快速数字化的制造市...

划重点

1

英伟达CEO黄仁勋在SIGGRAPH大会上发表主题演讲时透露,该公司早在2018年就开始押注人工智能,那时很少有人意识到此举的重要意义。

2

黄仁勋表示,大语言模型在未来几乎处于一切事物的前沿。从视觉效果到快速数字化的制造市尝工厂设计和重工业,一切都将在某种程度上采用自然语言界面。

3

黄仁勋预言,由英伟达芯片驱动的人工智能技术将“重塑计算机本身”,目前已知的计算平台将很快被强大的新人工智能平台所取代。

4

英伟达推出了专为运行人工智能模型而设计的芯片,以期在人工智能硬件领域击退包括AMD、谷歌和亚马逊在内的竞争对手。

科技新闻讯 8月9日消息,美国当地时间周二晚间,英伟达创始人兼首席执行官黄仁勋在2023年度计算机图形学大会(SIGGRAPH)上发表演讲,讨论该公司最新的人工智能和3D图形领域的创新。

五年前悄然押注AI获得丰厚回报

黄仁勋表示,英伟达在2018年做出了一个攸关公司生死存亡的商业决定,但却很少有人意识到这个决定将对英伟达乃至整个半导体行业的重大意义。当然,这一押注为英伟达带来了丰厚的回报,但黄仁勋表示,这只是人工智能驱动的未来的开端,一个主要由英伟达硬件驱动的未来。

黄仁勋回忆说,五年前的分水岭时刻是选择采用以光线追踪(RTX)还是智能升级(DLSS)形式的人工智能图像处理方案。“我们意识到栅格化正在达到极限,”他说,他指的是传统的、被广泛使用的3D场景渲染方法。“2018年是一个‘押注公司’的时刻。这需要我们重新发明硬件、软件和算法。在我们用人工智能重塑CG的同时,我们也在为人工智能重塑GPU。”

虽然光线跟踪和DLSS仍在消费者GPU和游戏多样化等领域被采用,但他们为实现它而创建的架构却是不断增长的机器学习开发社区的完美合作伙伴。

训练越来越大的生成式模型所需的大量计算,不再由某些具有GPU功能的传统数据中心提供,而是从一开始就设计用于执行必要大规模操作的系统支持,如H100。公平地说,人工智能的发展在某些方面只是受到这些计算资源可用性的限制。英伟达从人工智能热潮中受益,其服务器和工作站的销量始终处于供不应求的状态。

但黄仁勋坚称,这只是个开始。新的模型不仅需要训练,还需要数百万甚至数十亿用户的实时运行支持。他说:“大语言模型在未来几乎处于一切事物的前沿:从视觉效果到快速数字化的制造市尝工厂设计和重工业,一切都将在某种程度上采用自然语言界面。整个工厂将由软件控制的机器人操控,他们将制造的汽车本身也将是机器人。所以这是机器人设计机器人,并负责建造机器人。”

有些人可能不同意黄仁勋的观点,这虽然看似合理,但碰巧也非常有利于英伟达的利益。

但是,尽管我们对大语言模型的依赖程度尚不确定,但很少有人敢说不使用它们,甚至对谁将使用它,以及在什么情况下需要在新的计算资源上进行重大投资方面也是如此。

在以CPU为核心的机架等上一代计算资源上投资数百万美元已经没有意义,因为像GH200这样的硬件,可以用不到十分之一的成本和电力需求来完成同样的工作。GH200是英伟达新推出的、专用于数据中心的人工智能开发硬件。

黄仁勋还播放了一段视频,展示了由多个Grace Hopper计算单元组成的乐高积木般的组件,它们先是组成了刀片,然后是机架,最后是成排的GH200,所有这些计算单元都被高速连接在一起,成为“世界上最大的单个GPU”,它拥有完整的ML专业计算能力。

黄仁勋提出,这些将成为未来人工智能主导的数字行业的基本单位。他说:“我不知道是谁说的,但你买的越多,省的钱就越多。如果我能让你们记住我今天演讲中的一件事,那就是它了。”

黄仁勋在演讲中没有提到人工智能面临的诸多挑战、监管,也没有谈到人工智能的整体概念在发生变化, 就像它在去年已经多次经历过的那样。当然,这是一种乐观的世界观,就像在淘金热期间出售镐和铲子等工具的商人,他们同样赚得盆满钵满。

英伟达硬件推动AI革命,电脑即将被重新发明

黄仁勋在会上表示,由英伟达芯片驱动的人工智能技术将“重塑计算机本身”,目前已知的计算平台将很快被强大的新人工智能平台所取代。

黄仁勋说:“大语言模型就是一种新的计算平台,因为现在的编程语言是人类。计算机本身当然会以一种非常不同的方式处理信息。”

在将计算机和计算平台转向大语言模型方面,黄仁勋说,英伟达的加速计算将支持这一点。但与此同时,即将到来的充满生成式人工智能的环境,需要大幅扩大云计算的规模。

为了实现云计算的革命性扩展,黄仁勋表示,英伟达正在“提升”其Grace Hopper超级芯片处理器的性能。这种新的芯片由Grace Hopper和世界上速度最快的存储芯片HBM3相结合而成,被称为GH200。

黄仁勋证实:“芯片正在生产中,它基本上把这两个超级芯片变成了一个超大尺寸的超级芯片。你可以选择任何你喜欢的大语言模型,并将其放入其中,它将疯狂地进行推理。大语言模型的推理成本将大幅下降。”

黄仁勋解释称,这是一款专为运行人工智能模型而设计的芯片,以期在人工智能硬件领域击退包括AMD、谷歌和亚马逊在内的竞争对手。

据估计,目前,英伟达以超过80%的市场份额主导着人工智能芯片市常该公司的专长是图形处理单元(GPU),这已成为支撑生成式人工智能软件的大型AI模型的首选芯片,如谷歌的Bard和OpenAI的ChatGPT。但英伟达的芯片始终供不应求,因为科技巨头、云提供商和初创公司都在争夺GPU,以开发自己的人工智能模型。

GH200与英伟达目前最高端的AI芯片H100拥有相同的GPU,但它配备了141G的尖端内存以及72核的Arm中央处理器。黄仁勋说,新的芯片将在明年第二季度通过英伟达的分销商上市,并应该在今年年底之前提供样品。英伟达的代表拒绝透露价格。

通常情况下,使用人工智能模型的过程至少分为两个部分:训练和推理。

首先,模型使用大量数据进行训练,这一过程可能需要几个月的时间,有时还需要数千个GPU,例如英伟达的H100和A100芯片。然后,该模型被用于软件中,通过一个称为推理的过程进行预测或生成内容。就像培训一样,推理的计算成本很高,而且每次软件运行时,比如生成文本或图像时,都需要大量的处理能力。但与训练不同的是,推理几乎是不断进行的,而训练只在模型升级时才需要。

英伟达副总裁伊恩巴克(Ian Buck)周二在与分析师和记者的电话会议上表示,GH200是为推理而设计的,因为它有更大的存储容量,允许更大的人工智能模型安装在一个系统上。H100内存为80 GB,而GH200的内存为141 GB。英伟达还宣布了一种系统,可以将两个GH200芯片结合到一台计算机中,用于扩展规模。巴克说,拥有更大的内存可以让模型驻留在单个GPU上,而不需要多个系统或多个GPU才能运行。

与此同时,英伟达的主要GPU竞争对手AMD最近发布了自己的面向人工智能的芯片MI300X,它支持192 GB的内存,拥有强大的人工智能推理能力。包括谷歌和亚马逊在内的公司也在设计自己的定制人工智能芯片来进行推理。(文/金鹿)

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港