展会信息港展会大全

2020年看点:AI芯片的“落地”遇到困难,如何破解?
来源:互联网   发布日期:2020-09-23 09:23:56   浏览:15011次  

导读:AI芯片的发展,离不开人工智能技术的发展。人工智能从1956年诞生至今,共经历过三次大的浪潮。进入21世纪,随着计算机性能的提升和海量数据的产生,机器学习和CNN网络(卷积神经网络)获得突破,算法、算力和数据满足了人工智能的商业化落地需求,人工智能迎来...

AI芯片的发展,离不开人工智能技术的发展。人工智能从1956年诞生至今,共经历过三次大的浪潮。进入21世纪,随着计算机性能的提升和海量数据的产生,机器学习和CNN网络(卷积神经网络)获得突破,算法、算力和数据满足了人工智能的商业化落地需求,人工智能迎来了高速发展的阶段。

前几年的“人工智能热”让大小厂商陆续跳入AI芯片的研发大军中,而当这股潮水褪去,当初的50多家公司大多数都黯然退出历史舞台,如今只剩10家左右。AI芯片的风口已然过去。据艾瑞咨询发布的2019年《AI芯片行业研究报告》指出,目前AI芯片行业接近Gartner技术曲线泡沫顶端,只有通过市场检验和筛选的优质团队才能够继续获得产业、政策和资本的青睐与支持。

随着AI芯片进入深水区,人们更关注的不再是单纯的算力,还有对应用落地和商业化的支持:进入了哪些场景?合作了哪些客户?有没有软硬一体化方案?是否已经有实际案例?……“AI落地难”已成行业共识。

2020年看点:AI芯片的“落地”遇到困难,如何破解?

AI芯片为何落地难?

首先,放眼当前AI芯片的格局。目前市面上AI芯片主要分为云端AI芯片与终端AI 芯片,云端AI芯片主要部署在大型服务器中,可支持图像、语音等不同类别的AI 应用;终端芯片则被放在音箱、摄像头等硬件设备中。由于云端芯片起步较早,且所需要协同的CPU/GPU等硬件成本投入规模高,该领域已被英伟达、Intel等巨头瓜分殆尽;国内一众AI从业者大多选择发力在终端芯片领域,如自动驾驶、安防、零售、智能硬件等。但AI芯片终端市场细分化、碎片化、应用场景不明确也是一大难题。

至于AI芯片落地难的原因可能有无数个。例如,芯片研发比AI语言的更迭速度慢,当芯片面市时,其采用的AI语言可能已经过时了。这种问题首先体现在量产,但归根结底,缺乏杀手级应用场景才是最致命的。AI芯片厂商高投入研发过后,却不知道自己的产品要卖给哪些客户或者说应用到哪些产品上,无法找到可持续性的落地场景。

再者,用户接受度也不高,AI应用所需要的数据闭环难以形成。需要明确的是,AI应用开发模式与传统软件开发流程不同,传统软件开发可清晰定义功能,通过编程就能实现;而AI应用则要通过示例(数据)来定义功能再进行开发,需要形成数据闭环,且自动迭代。

2020年看点:AI芯片的“落地”遇到困难,如何破解?

破解AI芯片落地的关键

落地,既是今年AI芯片的看点,也是难点。当前AI的行业应用迟迟没有大规模爆发,AI芯片创业公司依旧面临产品难以落地、研发和应用还没有很有效地衔接起来等问题。芯片专用化趋势越来越明显,而应用落地则成为迫切需求。

在业内人士看来,AI芯片的挑战主要有三个,首先是怎样在整个体系架构上做到能耗比的最优,怎样突破冯诺依曼内存墙?其次是做好软硬一体,最后是要理解应用场景。

总所周知,算法(Algorithm)、数据(Big data)和计算能力(Computing)并成为新AI时代三大驱动力,AI在追求更好性能的同时要实现低功耗、低延迟和低成本,这就亟需高能效计算和高带宽数据技术。

2020年看点:AI芯片的“落地”遇到困难,如何破解?

据了解,国内的芯动科技Innosilicon提供的一系列技术和服务就能助力AI芯片落地,而且早已打破国外垄断,他们不仅率先攻克顶级难度的GDDR6高带宽显存技术瓶颈,成功量产高性能计算GPU,而且推出4K/8K显示的HDMI2.1 IP和高速32Gbps SerDes Memory。同时,在今年,率先推出国产自主标准的INNOLINK Chiplet和HBM2E技术,并即将首发全定制云计算智能渲染GPU芯片。

与此同时,提供市场上最快的AI存储加速芯片,使SOC数据的存储带宽增加四倍以上,支持高性能国产CPU/GPU/NPU等各种HPC应用场景。

未来,AI赛道比拼,影响的绝不仅是手机端,边缘侧、云侧的硬件算力、数据算法等元素无一不处于白热化的竞赛之中。


赞助本站

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港