展会信息港展会大全

Microchip利用AI技术解决SSD控制和存内计算等市场难题
来源:互联网   发布日期:2022-04-21 15:46:41   浏览:5344次  

导读:本文编译自EETimes Microchip Technology Inc. 正在通过其自己的控制器技术及其专注于边缘低功耗内存技术的子公司来应对人工智能 (AI) 挑战。 Microchip 支持 PCIe Gen 5 NVMe 2.0 的 SSD 控制器 Flashtec NVMe 4016 通过 16 个高速可编程 NAND 闪存通道提高...

本文编译自EETimes

Microchip Technology Inc. 正在通过其自己的控制器技术及其专注于边缘低功耗内存技术的子公司来应对人工智能 (AI) 挑战。

Microchip 支持 PCIe Gen 5 NVMe 2.0 的 SSD 控制器 Flashtec NVMe 4016 通过 16 个高速可编程 NAND 闪存通道提高了读写速度,高达2,400 MT/s,并提供 14 GB/s 的吞吐量和超过300 万次操作。它还支持所有最新的存储和性能计算应用程序,包括ZNS分区等。

Microchip 的 Flashtec NVMe 4016 包括一个全新的可编程机器学习引擎,能够实现各种模式识别和分类功能(来源:Microchip)

Microchip 数据中心解决方案产品管理副总监 Samer Haija 表示,ZNS 仍然被认为是利基市场,尽管该公司确实看到基于其控制器的部署有所增加。

“ZNS 是一项非常有前途的技术,迄今为止其吸引力有限,主要是因为需要更高级别的部件才能使其大规模工作。”Haija 说。但要让 ZNS 广泛发展,SSD 提供商和应用程序提供商需要开发一套标准、工具和驱动程序,以方便更多的数据中心利用该技术。“看到三星和西部数据宣布推动这一领域的标准化,令人鼓舞。”Haija说。

虽然速度和性能对于满足 AI 需求至关重要,但闪存面临着新的压力;控制器技术可以帮助缓解后端的 NAND 管理。Flashtec NVMe 4016 的可编程架构使 SSD 开发人员能够通过固件定制优化产品差异化,并包括一个新的可编程机器学习 (ML) 引擎,该引擎能够在 AI 和 ML 应用中使用各种模式识别和分类功能。

ML 引擎由输入层、零个或多个隐藏层和一个输出层组成。该引擎的输入层,负责从外部源接收输入。隐藏层在包含权重和偏差的隐藏层内的神经元的帮助下分析数据并执行学习过程。

基于这些权重和偏差,当达到阈值时激活神经元,输出层提供预测输出。NVMe SSD 中的固件与 ML 引擎连接,以发送模型配置、输入和训练数据,并接收最终输出。使用 ML 引擎的固件执行 AI 操作与输出。

“SSD 通常是为合成和通用工作负载而设计的,大多数 SSD 设计团队实施的 SSD 和媒体管理算法并不完全了解 SSD 在其生命周期中的流程。”Haija 说。 “控制器中的 AI 引擎支持实时 NAND 管理算法适应,无论 SSD 所承受的工作负载类型如何。”

Microchip 的专用引擎释放了控制器中的计算资源。同时,它仍然足够通用,可以开发与应用程序无关的 AI/ML 应用程序,并在不影响数据完整性的情况下平衡性能、功率、成本和易用性。

Microchip 的 SSD 控制器业务是其数据中心解决方案的一部分,该解决方案不仅限于 AI,包括 PCIe 交换机和结构、PCIe/CXL ReTimer和串行内存控制器。

SST 的 SuperFlash memBrain 用于 WITINMEM 的超低功耗 SoC(来源:SST)

与此同时,该公司的子公司 Silicon Storage Technology (SST) 更专注于人工智能,其内存计算技术旨在消除与在网络边缘执行人工智能语音处理相关的数据通信瓶颈。SST 的 SuperFlash memBrain 神经形态内存解决方案已成功应用于 WITINMEM 的超低功耗 SoC,其采用内存计算技术进行神经网络处理,包括语音识别、声纹识别、深度语音降噪、场景检测和健康状态监控。

SST 的 SuperFlash memBrain 是一种多级非易失性内存解决方案,支持用于 ML 深度学习应用的内存计算架构。据 SST 授权部门副总裁 Mark Reiten 称,它的 SuperFlash memBrain 依赖于该公司的标准 SuperFlash 单元,该单元已经在许多代工厂生产。他说,专用的模拟协处理器设计件自 2015 年以来一直在开发中,可以比数字系统更有效地执行 ML 处理。

WITINMEM 神经处理 SoC 是第一个量产的 SoC,它使mA功耗级别的系统也能够处理减少语音噪声并识别数百个命令词,无论是实时还是上电。memBrain 神经形态内存产品经过优化,可以为神经网络执行向量矩阵乘法,并使其效率最高,从而满足电池驱动或深度嵌入式边缘设备中应用。

Reiten说,通过将神经模型权重值直接存储在内存阵列中,并使用内存阵列作为神经计算元件来实现更低的功耗。由于不需要外部 DRAM 和 NOR,因此构建起来也更便宜。

“一旦你将这些转移到 DRAM,你的功耗就会急剧上升,整个系统的成本也会急剧上升,”Reiten 说。“这就是我们试图解决的问题。”

在 memBrain 解决方案的处理元素中永久存储神经模型还支持即时神经网络处理功能。

最近为 AI和神经网络开发的存内计算级别都围绕着电阻式 RAM (ReRAM)进行,而 SST 已经在内部完成了一些自己的开发。Reiten 解释说,多个单元的编程非常耗时并且存在精度问题,因此需要更多的创新工作,才能更好的突破每个单元存储一位的限制。

“学者们正在广泛开展这一领域的研究工作,他们对此感到兴奋,但当你想要制作有价值的东西时,这是一个完全不同的比赛。”

赞助本站

人工智能实验室
相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港