未来移动互联网生活离不开两个大趋势,一是 5G,二是 AI。前者是未来承载万物互联、提供最基础的连接性支持,后者则将赋能整个 5G 生态网络,具备彻底改变行业的能力,AI 强大的智慧处理能力配合 5G 时代高速率低时延的网络,将发挥出巨大的能量。
2020 年以来,5G 手机已经成为了主流,和 5G 密切相关的另外一个关键词,便是 “AI”,伴随着智能手机的更新迭代,AI 在潜移默化中已经改变了我们的生活方式。比如在智能手机上,AI 会将手机变成一个更智慧的整体,而不再是一个简简单单的工具,简单来说,它会学习如何像一个了解你的人一样,在你需要帮助的时候主动提供帮助,真正能 “变成你肚子里的蛔虫”,随时都能知道你想要干什么,然后提供相关的服务。
那么智能手机又是如何实现这种 AI 能力的?其实还要归结于芯片。近日高通发布了一篇名为《我们让人工智能无处不在》的博客,向我们详细阐述了 AI 在当下以及未来的实际运用以及高通在 AI 领域的努力成果。
高通长期耕耘 AI,让人工智能无处不在
有心的小伙伴会发现,每一年骁龙平台的发布,高通都会重点强调骁龙移动平台的 AI 能力,实际上高通这些年来也一直为将具有强大算力的人工智能技术应用到终端上而努力。
高通在 AI 领域有着前瞻性的技术投入,据官方资料,早在 2007 年,高通就开始探索面向计算机视觉和运动控制应用的机器学习脉冲神经方法,随后还将其研究范围从仿生方法拓展到人工神经网络主要是深度学习领域。2012 年,高通在 ImageNet 挑战赛中利用深度学习技术获得成功,在物体定位、物体侦测和场景分类比赛中名列前三名。2014 年 9 月,高通在阿姆斯特丹开设 Qualcomm Research 荷兰分支,作为机器学习研究的基地。2015 年 9 月,高通携手阿姆斯特丹大学 (QUVA)建立联合研究实验室,专注于推动面向移动计算机视觉的、最先进的机器学习技术发展。2017 年,通过收购位于阿姆斯特丹的领先人工智能公司 Scyfer,进一步深化与阿姆斯特丹人工智能业界的合作关系。
高通在人工智能领域的耕耘已经超过了十年,从技术落地到产品,高通在 2015 年骁龙 820 处理器上正式融入了第一代人工智能引擎 Zeroth,在 CPU 上实现运行神经网络,还采用了当时商用领域最为主流的深度学习框架 Caffe,能自动根据用户拍摄的照片进行分类,比如识别出实物和汽车的图像,分别存储在两个不同的文件夹,方便用户更好地管理拍摄的照片。目前最新的骁龙 865 处理器搭载了第五代人工智能引擎 AI Engine,AI 性能相比上一代提升了 2 倍多,具体到整体运算力上,可以达到 15 TOPS,也就是每秒 15 万亿次运算的水平。除了性能的提升,第五代 AI Engine 还对每个内核进行大幅优化和提升,更重视整体芯片架构面向 AI 计算的高效率和灵活性。
高通的人工智能引擎不仅应用在旗舰移动平台上,包括 600、700 系列移动平台也均有支持,这对于人工智能在手机等终端的落地显然是极大的推动,目前搭载高通骁龙的手机终端已经超过 10 亿台,包括小米、一加、vivo、OPPO、摩托罗拉、华硕、中兴、努比亚在内的诸多主流终端厂商都已经用上高通 AI Engine。在我们使用手机的过程中,拍照、视频拍摄、音频识别、游戏等各种场景几乎都与 AI 有着密切的联系,举一个最简单的场景AI 的实时翻译,翻译不是什么新鲜功能,重点是在 “实时”这两个字上,它需要模拟人脑的思维方式,实时处理接受到的语音信息,并将之翻译为文本或语音,这对神经网络运算的运算量、速度都有极为严苛的要求,需要极为强大的算力支撑。
云端 AI 相辅,侧终端 AI“相成”
5G 将引领我们进入一个万物互联的新时代,我们日常生活中的手机、电视、汽车、冰箱、空调、灯、音箱等等智能终端设备,在 5G 的联结下,都将汇入同一网络,海量终端设备彼此独立,又互联互通,让这些设备彼此通信连接,就需要进行 AI 运算。那么这些 AI 运算是放在云端呢?还是在本地终端运行?高通给出的答案是终端侧 AI。
终端侧 AI,顾名思义,它的意思就是数据的采集、计算、决策都在前端设备本地进行。与在云端运行的 AI 相比,在终端侧运行人工智能算法具有诸多优势,例如即时响应、可靠性提升、隐私保护增强,以及高效利用网络带宽。而云端 AI 在这个过程中,是作为终端侧处理的补充而存在,比如在一些汇集大数据、训练神经网络模型以及运行很复杂或依赖终端外数据的一些推理上,云端 AI 有着一定的作用。不过,终端设备完全依靠云端 AI 处理并不现实,目前全球已有数十亿的联网终端,未来只会越来越多,海量终端彼此互连并感知周围环境,产生的海量数据全部传给云端进行处理和管理,不容易,更影响体验。因此,终端侧 AI 是更适合的选择。
在终端侧大规模运行推理,就不得不引出另外一个关键词能效。还是以智能手机为例,AI 运算本身需要反复、高强度的运算环境,智能手机的计算能力、电池、存储空间等方面都可能是个问题,而高通给出的解决方法,是在 AI Engine 中引入 Hexagon 张量加速器。Hexagon 支持的是 8 位和 16 位的定点运算,而定点运算有助于模型更快的运行,同时能耗也更低,Hexagon 张量处理器的加入,可以大大提高 AI Engine 的整体运算效率,降低功耗。
此外,移动端很多 AI 用例都是并行用例,在处理这些用例的时候,往往有大量数据进入到终端,处理这些海量数据,一定会对手机的性能资源、功耗造成不小压力。针对这个问题,高通在 AI Engine 中开发了一项全新的专用技术,叫做深度学习带宽压缩。这项技术能够对这些海量数据进行高达 50% 的压缩,从而将需要进入到芯片处理的数据压缩一半,以节省电能、降低功耗。
高通认为,我们正处于机器学习发展征程的最初期,深度学习也仅是具备改变计算潜力的多项机器学习技术之一。随着 5G 发展壮大并建立起统一的连接架构,AI 将带来巨大的社会效益,而高通,正在持续推进这个过程。