聚焦:人工智能、芯片等行业
欢迎各位客官关注、转发
前言:
从初绽锋芒到逐渐被大众认知,AI芯片经过数年发展,已经走到了角逐规模化商用的新节点。
作者| 方文
图片来源 |网 络
AI芯片领域百花齐放
北京大学信息科学技术学院副院长兼微纳电子学系系主任蔡一茂教授,从学术角度来看,目前AI芯片领域呈百花齐放的态势,包括深度学习神经网络芯片、类脑芯片等很多技术路径大家都在探索。
根据部署位置,AI芯片可以分为云端(数据中心)芯片和边缘端(终端)芯片。云端芯片部署位置包括公有云、私有云或者混合云等基础设施,主要用于处理海量数据和大规模计算。
而且还要能够支持语音、图片、视频等非结构化应用的计算和传输,一般情况下都是用多个处理器并行完成相关任务。
边缘端AI 芯片主要应用于嵌入式、移动终端等领域,如摄像头、智能手机、边缘服务器、工控设备等,此类芯片一般体积孝耗电低,性能要求略低,一般只需具备一两种AI 能力。
按芯片承担的任务,可以分为用于构建神经网络模型的训练芯片,与利用神经网络模型进行推断的推断芯片。
训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程。推断是指借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。
训练芯片受算力约束,一般只在云端部署。因此,AI芯片可以分为云端训练芯片、云端推断芯片和边缘端训练芯片。
从AI芯片的技术路线看,主要包括基于传统架构的CPU、GPU、FPGA、ASIC、类脑芯片。
通用性是终极目标
蔡一茂教授认为衡量AI芯片方案性能有5个维度:自适应、性能、能效比、可编程性、可扩展性。将来一个重要趋势是走向通用性,这对于人工智能、AI芯片都非常重要。
很多AI公司面临AI芯片或AI方案落地困难或者成本控制的挑战是无法将一个方案简单的复制应用于不同的场景,而这个是软件公司相对容易做到的。
因为AI应用场景存在差异化,通常需要根据其数据格式、具体应用场景入驻一个团队来联调。
在蔡一茂教授看来,“这是限制AI算法和芯片实际大规模应用的一个重要挑战”,无论是AI算法还是AI芯片的通用性,产学界都尚未出现很好的解决方案。
AI芯片进化之门
除了AI芯片架构本身的进展外,更高性能的芯片,往往离不开先进的存储器和封装方式。
传统芯片存在的一大瓶颈是“存储墙”。存储和计算,是芯片的两大基础功能。存储器与计算单元之间的数据搬运,往往消耗大量功耗,但很多加速芯片并未解决这个问题。
为了降低数据频繁交换导致的延迟和功耗,以存储为中心的计算架构逐渐兴起,成为AI芯片的一大新兴技术路线。
虽然有一些基于SRAM、DRAM、SSD等存储器的存内计算方案和芯片被提出,但是目前还没有特别高性价比的存储器技术来支撑存内计算,存内计算也还未真正做到很好的产业化程度,更多是通过提高存储器的性能和带宽,来进一步优化整个综合系统。
结尾
蔡一茂教授特别强调了两点,一是芯片本身是一个很宽泛的产品,需要实现很多技术方面的突破,不能说一个点的突破,就说我们完全实现技术自主了。
二是,学术成果与产业问题的解决不要混为一谈。学术上面向未来的研究进展,不见得就能立即用到产业中,来解决现在的问题。
蔡一茂教授认为,我们应保持信心,也要保持定力,吸引更多人才投入到集成电路研究和产业中,引进高水平的全球人才的同时也要努力培养出更多优秀的本土领军人才和战略科技力量。
部分内容来源于:智东西北大蔡一茂教授:解读AI芯片技术趋势,架构创新、新型存储与先进封装
本公众号所刊发稿件及图片来源于网络,仅用于交流使用,如有侵权请联系回复,我们收到信息后会在24小时内处理。
END