人工智能 (AI) 使视频游戏更加逼真,并帮助手机识别主人的声音但耗电量大的程序会大量消耗能量。然而,由于像人脑一样工作的计算机芯片,下一代人工智能的能源效率可能会提高 1000 倍。一项新的研究表明,这种神经形态芯片只需使用普通芯片消耗的一小部分能量即可运行 AI 算法。
“这是一项令人印象深刻的工作,”曼彻斯特大学的计算机科学家史蒂夫弗伯说。他说,这样的进步可以推动复杂软件性能的巨大飞跃,比如翻译语言或驾驶无人驾驶汽车。
人工智能程序通常擅长在数据集中找到某些所需的模式,而它所做的最复杂的事情之一就是在将整个事物拼凑在一起时保持模式的一部分。考虑计算机如何识别图像。首先,它会发现该图像的明确边缘。然后,它必须记住这些边缘以及图像的所有后续部分因为它形成了最终的图片。
这种网络的一个常见组件是一个称为长短期记忆 (LSTM) 的软件单元,它在事物随时间变化时保持一个元素的记忆。例如,图像中的垂直边缘需要保留在内存中,因为软件会确定它是代表数字“4”的一部分还是汽车的门。典型的 AI 系统必须同时跟踪数百个 LSTM 元素。
当前在传统计算机芯片上运行的 LSTM 网络非常准确。但是芯片很耗电。为了处理信息位,他们必须首先检索存储数据的各个位,对其进行操作,然后将它们发送回存储。然后一遍又一遍地重复这个序列。
英特尔、IBM 和其他芯片制造商一直在试验另一种芯片设计,称为神经形态芯片。这些处理信息就像大脑中的神经元网络,其中每个神经元接收来自网络中其他神经元的输入,并在总输入超过阈值时触发。新芯片的设计目的是在网络中将神经元的硬件等效物连接在一起。人工智能程序也依赖于人造神经元网络,但在传统计算机中,这些神经元完全在软件中定义,因此实际上驻留在计算机的独立存储芯片中。
神经形态芯片中的设置同时处理内存和计算,使其更加节能:我们的大脑只需要 20 瓦的功率,与节能灯泡差不多。但要利用这种架构,计算机科学家需要重新发明他们如何执行 LSTM 等功能。
这就是格拉茨科技大学的计算机科学家沃尔夫冈马斯(Wolfgang Maass)承担的任务。他和他的同事试图在我们的大脑中复制一种生物神经网络执行的记忆存储机制,称为超极化 (AHP) 电流。在大脑中的神经元触发后,它通常会返回到其基线水平并保持静止,直到它再次接收到足够的输入以超过其阈值。但在 AHP 网络中,神经元放电一次后,会暂时禁止再次放电,这是一个实际上有助于神经元网络在消耗更少能量的同时保留信息的死区。
马斯和他的同事将 AHP 神经元放电模式集成到他们的神经形态神经网络软件中,并通过两个标准的 AI 测试运行他们的网络。第一个挑战是识别分解成数百个单独像素的图像中的手写“3”。在这里,他们发现当在英特尔的一种神经形态 Loihi 芯片上运行时,他们的算法比在传统芯片上运行的基于 LSTM 的图像识别算法的能效高出 1000 倍。
马斯指出,第二次测试是在一系列 22 个英特尔第一代 Loihi 芯片上完成的,这些芯片在相互通信时消耗了相对大量的能量。此后,该公司推出了第二代 Loihi 芯片,每个芯片都有更多的神经元,他说这应该会减少对芯片间通信的需求,从而使软件更有效地运行。
目前,市面上几乎没有神经形态芯片。因此,大规模应用可能不会很快出现。但艾伦研究所的计算神经科学家安东阿尔希波夫(Anton Arkhipov)表示,高级 AI 算法,例如马斯所展示的那些,可以帮助这些芯片获得商业立足点。“至少,这将有助于加速人工智能系统。”
反过来,这可能会带来新的应用,例如人工智能数字助理,它不仅可以用照片中的人名提示某人,还可以提醒他们在哪里相遇并讲述他们过去的故事。通过在大脑中整合其他神经元放电模式,马斯表示,未来的神经形态装置甚至可能有一天会开始探索多种神经元放电模式如何协同工作以产生意识。