展会信息港展会大全

人工智能实时模拟微处理器的性能
来源:互联网   发布日期:2021-12-13 08:24:50   浏览:7771次  

导读:来源:杜克大学 杜克大学(Duke University)的计算机工程师开发了一种新的人工智能方法,可以在几乎不使用任何计算能力的情况下,准确地预测任何类型的计算机处理器每秒超过1万亿次的功耗。这项名为APOLLO的技术已经在现实世界的高性能微处理器上得到了验证,...

来源:杜克大学

杜克大学(Duke University)的计算机工程师开发了一种新的人工智能方法,可以在几乎不使用任何计算能力的情况下,准确地预测任何类型的计算机处理器每秒超过1万亿次的功耗。这项名为APOLLO的技术已经在现实世界的高性能微处理器上得到了验证,它可以帮助提高效率,并为新微处理器的开发提供信息。

该方法在MICRO-54:第54届IEEE/ACM微架构国际研讨会上发表的一篇论文中有详细介绍,MICRO-54是计算机架构领域的顶级会议之一,论文被选为该会议的最佳出版物。

“这是一个被深入研究的问题,传统上依赖于额外的电路来解决,”该论文的第一作者、杜克大学电子与计算机工程教授陈益然实验室的博士候选人谢志尧说。“但我们的方法直接运行在后台的微处理器上,这打开了许多新的机会。我想这就是人们对它如此兴奋的原因。”

在现代计算机处理器中,计算周期约为每秒3万亿次。跟踪这种高度快速的转换所消耗的能量,对于保持整个芯片的性能和效率非常重要。如果处理器消耗过多的能量,它可能会过热并导致损坏。电力需求的突然波动会导致内部电磁复杂性,从而降低整个处理器的运行速度。

通过实现可以预测和阻止这些不良极端情况发生的软件,计算机工程师可以保护他们的硬件并提高其性能。但这样的计划是有代价的。与现代微处理器同步通常需要额外的硬件和计算能力。

“APOLLO接近一种理想的功率估计算法,它既准确又快速,而且可以很容易地以低功耗成本构建到处理核心中,”谢说。“因为它可以用于任何类型的处理单元,它可能成为未来芯片设计的常见组件。”

阿波罗的力量来自于人工智能。谢和陈开发的算法使用人工智能来识别和选择处理器中与功耗最密切相关的100个信号。然后,它根据这100个信号建立一个功耗模型,并对它们进行监控,以实时预测整个芯片的性能。

由于这种学习过程是自主的和数据驱动的,它可以在大多数任何计算机处理器架构上实现甚至是那些尚未发明的。虽然它不需要任何人类设计师的专业知识来完成它的工作,但算法可以帮助人类设计师完成他们的工作。

“在人工智能选择了100个信号后,你可以查看算法,看看它们是什么,”谢说。“很多选择都很直观,但即使它们没有,它们也可以通过告知设计师哪些过程与能耗和性能关系最密切,从而为设计师提供反溃”

这项工作是与Arm Research合作的一部分,Arm Research是一家计算机工程研究机构,旨在分析影响行业的干扰,并在部署前多年创建先进的解决方案。在Arm Research的帮助下,APOLLO已经在当今一些最高性能的处理器上得到验证。但据研究人员称,该算法还需要在更多平台上进行测试和综合评估,才能被商用计算机制造商采用。

“Arm Research与一些业内最知名的公司合作,并从它们那里获得资金,比如英特尔和IBM,预测功耗是他们的主要优先事项之一,”陈说。“像这样的项目为我们的学生提供了一个与这些行业领袖合作的机会,这些类型的结果使他们想要继续与杜克大学的毕业生合作并雇佣他们。”

赞助本站

人工智能实验室
相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港