文|晏秋
编辑|杨逍
Lightmatter是光子计算公司,总部位于马萨诸塞州波士顿,并在硅谷设有分部,由Nicholas Harris和他的团队创立,其目标是通过计算加速人类进步。通过结合电子学、光子学和新型算法,Lightmatter构建了针对AI的下一代计算平台。这种光子计算平台能够节省能源,减少数据的碳足迹和运营成本,为AI的快速发展提供源源不断的动力。
Lightmatter在不久前才完成了C轮融资,筹集了1.54亿美元,截止目前,该公司已获融资达2.7亿美元。其C轮投资方包括SIP Global、Fidelity Management & Research Company、Viking Global Investors、GV (Google Ventures)和HPE Pathfinder,Lightmatter的现有投资者也参与其中。
随着生成式AI系统在各行各业的涌现和普及,运行算法所需的能源消耗和资金呈指数级增长,导致热负荷大、性能差和运营成本高等突出问题。例如GPT-4的训练模型可能会消耗庞大电力,并产生大量废热。为突破模型的规模、能力和成本方面的限制,大型语言模型(LLM)成为人工智能市场的新宠儿。
在这一机遇下,Lightmatter研发了三类光子技术产品:Envise、Passage和Idiom,提供一整套硬件和软件解决方案,旨在释放光子计算和互连技术的优势。其中,Envise 4S在服务器中配置了16个Envise芯片,功耗仅为3KW,可以以超高的性能运行目前世界上最大的神经网络,具有可靠性、可用性和可维护性的特点。Passage为并排集成的晶体管提供了一个功能强大的接口,它使用CPU、GPU、FPGA、DRAM和ASIC的异构块进行晶圆级处理,内设光子互连,无需连接光纤,降低了高性能计算系统所需的成本。Idiom与深度学习模型交互,提供模型部署所需的转换工具,能够自动将模型部署到Lightmatter硬件上,优化神经网络模型的性能。Lightmatter的技术可用于自动驾驶、机器人视觉与控制、电子商务、数字信号处理等领域,公司计划在2024年进行大规模的生产部署。
Lightmatter首席执行官兼创始人Nick Harris指出:“AI可扩展性和能源消耗性方面的挑战是前所未有的,传统芯片突破了技术界限,但数据中心产生的能源消耗越来越多。据统计,训练一个大型语言模型所消耗的能量大约比100个美国家庭一年的消耗总量还要多,除非创建一种新的计算范式,否则到本世纪末,AI模型将消耗世界总电力的10%-20%。这迫使我们对计算基础设施进行改进,我们相信,未来几年,光子技术将改变生成式人工智能和超级计算,通过光子学能够创造出一个更光明的未来”。
2022年,Lightmatter调整了领导团队人员,将英特尔数据中心和人工智能集团前副总裁Ritesh Jain和谷歌前工程师Richard Ho博士任命为副总裁。团队成员多元专业,从数字、模拟和光子到系统和平台再到机器学习技术均有所涉猎。
SIP Global Partners的普通合伙人Jeffrey Smith表示:“Lightmatter在硬件中利用了光子学的方法,进一步提升生成式AI的初始性能和应用场景,辐射全球的算法算力。我们很高兴能够投资Lightmatter,期待它通过更快、更可持续的计算来发挥AI的潜力”。
“光子技术能够满足当今人工智能计算工作负载的需求。Lightmatter正在采取一种差异化的方法,同时汇集了一支经验丰厚的技术团队来完成它的使命”,GV的普通合伙人Erik Nordlander说,“我们很高兴能支持Lightmatter下一阶段的发展,他们正在打造世界领先的光子计算公司。”