硬件制造商花费了数年时间和数十亿美元来打造人工智能产品,但现在他们面临一个紧迫问题:我们如何让大小公司都能直接使用人工智能(AI)?
芯片制造商英特尔(Intel)和英伟达(Nvidia)意识到,只有为企业提供熟悉AI的自动启动套件,它们的AI硬件才会畅销。为此,两家公司都发布了AI套件,企业可以轻松部署这些套件来衡量AI的好处。
人工智能发展中,所有从业者都有一个共同的目标,那就是让AI尽可能广泛应用。
英特尔(Intel)本周发布了面向垂直行业的AI推理套件,用于部署AI推理模型,从可用的硬件资源中生成最快的结果。AI套件使用低代码的方法,可以在不需要任何编程知识的情况下部署。
以往如果你尝试AI应用,需要很多条件:必须找到正确的软件,正确的人工智能模型,正确的数据集,所有这些都需要技能集,需要训练懂人工智能的人。
新AI推理工具包建立在该公司的One API并行编程框架上,针对特定的垂直领域,包括公用事业、医疗保健和制造业。该套件包括一个预构建的AI模型,用于公用事业单位衡量资产的健康状况,如负责配电的电线杆,用于检查制造产品的视觉质量控制,以及用于企业的聊天机器人。
类似地,英伟达上个月发布了TAO入门套件它的意思是训练、适应和优化可以在不具备编程或机器学习知识的情况下创建用于语音和视觉识别的人工智能模型。
芯片制造商正试图发展出更多的人工智能快速运行方式,而不是命令行方式来执行应用程序。
人工智能的广泛应用还有许多障碍。如今,人工智能在很大程度上掌握在拥有海量数据的大型云服务提供商手中。客户有他们自己的数据,这些数据对人工智能来说可能有用也可能无用。这些公司也不知道如何将数据转化为洞察力。
英特尔的参考套件旨在减少人工智能的环节,并将其变成现实。
“每个人都听说过人工智能的潜力,他们就会投资。通常情况下,他们看不到人工智能的即时回报,就会怀疑、拒绝。所以这就是越来越多的硬件领导厂商正在努力解决的问题。
英特尔和英伟达提供的工具包解决了人工智能的起步问题,即编程和微调人工智能,以利用可用的计算能力。Intel工具包提供了一个特定AI应用程序的基线实现,它涵盖了部署的整个流程,包括代码、指令和数据。
在参考套件的顶层是来自PyTorch等库的代码,其中调用了OneAPI神经网络库,这些库针对CPU、GPU和其他处理器上的不同芯片架构和矩阵操作进行了优化。
这就是架构的工作方式理想情况下,AI开发者、数据科学家不应该担心性能,他们只需要免费获得性能。这里的免费是指不用付出任何努力来获得性能。
这些套件是更高效的工具,但最终,英特尔希望为开发人员提供破解模型的能力,微调和定制AI代码,以进一步提高生产率。
未来的参考套件的实现可能具有数据增强功能,如果公司的数据集有限,计算机生成的合成数据等技术可以加入其中。英特尔也在采取措施,为那些想要测试AI模型但买不起高端GPU或加速器的客户提供AI硬件资源。