在近日将门创投召开的一周年生日会上,NVIDIA全球副总裁兼中国区总经理张建中在圆桌讨论环节发表其对人工智能行业落地的看法,以及NVIDIA在AI领域的布局。
张建中认为,自动驾驶、AI city、医疗健康、AI游戏将会是人工智能最新落地的应用行业。而NVIDIA成立了自动驾驶汽车部门,联合其他企业一起攻克自动驾驶的难题。
关于GPU和FPGA格局,张建中称,不管它是叫GPU也好,叫FPGA也好,最后都是要做深度学习的处理的,所以我们可以叫深度学习处理器,关键是要做AI运算,就必须要专门为这个行业定制处理器。张建中透露,NVIDIA下一代架构GPU叫Volta,今年5月份会在美国发布。(小易)
以下为张建中发言实录(根据将门一周年生日会圆桌环节整理):
高欣欣:NVIDIA是我们整个行业最为尊重的公司之一,而且还特别有远见,很多年前就开始重磅在人工智能。NVIDIA强大的GPU计算力,使得众多创新能够快速发展起来。所以我想问您问题的关键词跟未来这个词有关。人工智能如火如荼,但是如何落地?如何在今天落地才是我们关心的问题。您觉得人工智能在什么样的场景和行业会率先激活?NVIDIA又会如何布局?
张建中:这个问题很多人经常问我,讲到人工智能创新的落地。其中一个落地的行业目前NVIDIA自己也在做。我们专注成立了一个自动驾驶汽车(self-driving car)部门,结合当今人工智能从计算机视觉、自然语言理解到机器学习各方面的综合。当然,这个行业我们也在联合全球几乎所有的合作伙伴,一起在攻克这个难题。如果能解决这个难题,自动驾驶汽车能真正行驶在街道上,那一天代表人工智能的落地取得了巨大的成功。
另外一个NVIDIA看好的人工智能落地的行业是AI city。AI city在我们看来是目前落地最快的一个行业。我相信很快在座每一位就会听到在国内跟国际上一些大单落地非常大的订单,都是来自于AI city。
第三个是健康行业。NVIDIA自己设了一个项目,我们自己想攻克一些难题,通过帮助癌症病人尽早发现这些疾病,而且尝试找出一些方法去治疗。所以健康是我们第三个行业。
最后一个行业是AI游戏。如果当你第一次打游戏的时候,没有人教你,你会对这个游戏无感。但是机器会根据你的水平,自动的把你带到专业级的时候,你会发现任何一个人都是Gamer,这也是为什么今天我们在全球大概有10亿玩家在打游戏。在今后我认为AI Gaming将会是一个很大的领域。所有的游戏公司,将会把他们的游戏变成AI Gaming。
高欣欣:请问张建中先生,未来人工智能计算中,GPU和FPGA格局会如何演化?您对通用人工智能架构有何构想?
张建中:讲到GPU和FPGA,所有的chip(芯片)只是chip,对我们来讲刚才谈AI有三个因素:
计算力
数据
算法
这三个当中没有一个东西只是芯片,计算力跟芯片不是等同的,两个是完全不一样的。
作为一个AI的处理器或者说AI的计算平台,它的核心是要把算法跟数据结合在一起,中间经过的各种各样的计算平台,无论今天你是用什么样的架构(framework)做训练或者影响,你都需要有非常多的丰富的计算平台当中的软件、硬件的结合。这些SDK你去支持TensorFlow 也好,你去支持Caffe 也好,你去支持LSTM也好,你去支持各种各样的GAN也好,或者CNTK也好,这些所有的框架它一定要有相应的加速软件去帮助他加速,如果不能加速,其实我们人工智能的发展会停留在60年前,这些算法其实存在很久了,我们不是今天才能有的。
正是因为有强大的计算力推动这些算法去发展,这样的架构才能够帮助AI去实施我们今天达到的成果,其实是很不容易的,NVIDIA大概在过去的10年当中让GPU的计算力提升了1500倍。这个世界上所有的芯片设计,无论是哪种架构,没有一个芯片能够在10年当中提升他的计算力1500倍。并且这个速度就像刚才我们看到的,它还在加速,不停地加速。这个世界加速是不停的,只要你停止就意味着死亡。
所以说你要想去把这个架构做得更好,只有一个方法就是去不停地优化它的架构,让它计算得更快。
GPU下一代架构NVIDIA我们都知道了叫Volta,那我们在接下来的5月份,会在美国发布新的计算架构芯片。一年一度的GTC就是针对于GPU的技术发展,从各个不同的角度去优化它的计算平台的性能,无论你是在做训练或者影响都是一样的。
刚才水成将的很好,在训练的时候可能不惜一切代价,让它算得很快,功耗无所谓,只要算得快就行,但是到影响的时候,我们的模型要小,我们的功耗要很低,然后我们还要算得很快,还要做得很准。因为当你的精度不够的时候。这个AI就像刚才我们讲的,都要变成动物了,那就没有用了。所以它是有一定的门槛的,那这些门槛的对这个影响的作用也是一样的,你必须得达到一定的精度我们才能去用,否则的话这些技术放到今天,我们AI应用当中就是没有价值的了。
那从这些所有的架构当中,我们研究了几乎所有的架构。其实你不管它是叫GPU也好,叫FPGA也好,你最后的就是我们要做深度学习的处理的。那我们可以讲,今天的这个GPU恰恰是在目前架构当中最合适的,无论是用来做训练还是用来做影响,最佳的芯片,处理器的架构。
那在今后这个架构往哪个方向变,是不是叫GPU,你可以叫它是GPU,其实我们可以叫它是深度学习处理器,你要问我的话下一代架构我不叫GPU,可能GPU是我们以前的名字,就像以前我们叫微软研究院,今天有将门,其实都是同一批人,但是同一个架构的演变当中,以前GPU的名字叫图像处理器,20年后,GPU早就不再是以前的GPU。如果拿今天NVIDIA的架构叫做Pascal,跟第一代用来做定点渲染引擎--那个专门做VGA处理器的话,两个架构是完全不一样的。今天的GPU基本上是一个并行计算器,而且100% 可编程,以前是不可能的。
那我们讲20年前那个也叫GPU,今天也还叫GPU的话,下一代还叫GPU的话,那我们可以持续地用这个名称,但是你要问我的话,下一代已经就是深度学习处理器了。
所以FPGA也好,GPU也好,无论是谁,只要你想做人工智能行业,我们必须要专门为这个行业定制处理器。所以NVIDIA下一代处理器你完全100%地可以讲,它就是一个AI 处理器系统,我们在这上面就要搭建一个AI的平台,这个平台不只是芯片的,包括周边的设备,你会看到NVIDIA我们做一个N2N的解决方案。我们有第一个产品叫做AI 超级计算机,很多人可能没有听说过,叫做NVIDIA DGX,DGX1是第一个,在全世界我相信也是第一台基于AI的超级计算机,这个AI 超级计算机我们在中国已经有很多用户开始使用了,他的设计就是专门用来做AI的,它的工作就是AI运算。
在这个超级计算机的基础上,下一代我们要做的是,在超级计算机硬件的基础上,去增加很多数据的处理的能力,所以你可以看到它的支持的内存的速度,它的总线是NVLINK,不是我们的PCIE。在数据和数据之间的通讯,在GPU跟GPU之间的连接,多GPU和GPU Cluster之间的连接,都是专门用来设计做大规模计算处理的一些系统架构。
那当然只有硬件是没有用的,你必须要做很多的训练框架,就像CNTK,我们一定要100%加速,还要让它加速得很快,你就要有它的中间件,我们就要支持caffe,我们要去优化caffe,做成NVIDIA caffe,我们要去支持tensorflow,我们就要有专门NVIDIA Tensorflow去加速的这个Tensorflow的速度。
所以你可以看到一系列的软件过程是经过了很多年的积累下来。当然这些还不重要,重要的是如何让我们更多的人才,让我们所有的初创公司很快地用上这些工具,这个是最关键的。所以我们要有教育系统。
NVIDIA专门设立了一个培训学校叫做深度学习学院(Deep Learning Institute),DLI是NVIDIA在全球推广的一个项目,我们在全球几乎18个国家要去做培训学校,培养深度学习的人才。而这些人才我们肯定会跟北大这样的研究机构、培训机构去培训我们未来的天才,我们也不能只是靠小文帮我们培养在中国的人才,我们也是希望扩大我们的这个培训的机构的能力,让北大、清华、交大,各种各样的大专院校、科研机构在中国培养本土的人才,这样的人才很缺乏,我相信在今后的这一段时间当中,几乎所有的计算机专业的人,学数学的、学物理的,都会成为深度学习的专家的。那这些平台的培养、人才的培养、系统的软件、硬件的架构结合,我相信才会帮助我们把深度学习用在人工智能当中,同时让AI达到一个新的阶段。所以我希望大家不要再去看你是GPU、FPGA还是ASIC,只要是处理器,他要想做人工智能,你一定要为AI定制。
我希望我们的AI的处理器跟超级计算机能够帮助到每一个人。
(发言实录部分来自/将门创投)