展会信息港展会大全

你可能会错过的 3 个重要 AI 趋势
来源:互联网   发布日期:2020-05-29 08:16:20   浏览:11305次  

导读:Sudharsan Rangarajan是Publicis Sapient的工程副总裁,在人人为AI唱响恢宏史诗时,他的视角却与众不同。他认为不能只见森林不见树木,与其期待不知何时才能到来的巨变,不如关注那些足以改变命运的小进展。中兴数据智能为您翻译如下。 Sudharsan Rangarajan...

Sudharsan Rangarajan是Publicis Sapient的工程副总裁,在人人为AI唱响恢宏史诗时,他的视角却与众不同。他认为不能“只见森林不见树木”,与其期待不知何时才能到来的巨变,不如关注那些足以改变命运的“小进展”。中兴数据智能为您翻译如下。

你可能会错过的 3 个重要 AI 趋势

Sudharsan Rangarajan | 撰文

根据Gartner的一项调查,全球48%的CIO都有意于2020年底前部署AI(人工智能)。但是,尽管针对AI和ML(机器学习)的态度普遍是乐观的,我仍然继续持怀疑态度。在不远的将来,我看不到有任何一种发明会给生产效率和生活水平带来飞跃。那些等待着AI/ML格局发生翻天覆地变化的企业,反而将错失其中一些较小的发展。

以下就是一些当下并不瞩目但长期来看会产生重大影响的趋势:

1、专用硬件和云服务商正在改变格局

对企业而言,“本地还是上云”成为争议话题的日子已经一去不复返了。今天,即便是保守的公司也在谈论云和开源。难怪云平台正纷纷改进其产品,以求涵盖AI/ML服务。

随着ML方案的需求越来越高,CPU和内存的数量不再是加速或扩容的唯一方式。针对特定硬件无论是GPU、TPU还是晶圆级引擎的优化算法比以往任何时候都要多。这意味着以定制化程度更高的硬件来解决AI/ML问题的转变过程将会加速。企业只愿意用CPU来解决最基本的问题。使用通用计算框架处理AI/ML问题的方式面临被淘汰的风险,这足以让企业转向云计算平台。

专用芯片和硬件的增长带来了大量提升硬件的算法改进。尽管新的硬件或芯片可能允许使用之前被认为较慢或不可能的AI/ML方案,但许多当前正在驱动通用硬件的开源工具需要被重写,以便获得新芯片的优势。近来算法提升的例子包括Sideways通过并行化训练步骤来加速DL训练,以及Reformer优化内存使用和计算能力。

2、围绕隐私的创新方案

我还预见到,对数据隐私的关注将逐渐转到ML模型带来的隐私隐患上。当前的关注点主要在采集何种数据、如何采集数据和如何使用数据上,但ML模型并不是一个真正的黑盒,根据一段时间的输出反推出模型的输入并非不可能,这将导致隐私泄漏。数据和模型隐私方面的挑战将驱使企业拥抱联邦学习解决方案。去年,Google发布了TensorFlow Privacy,该框架采用差异化隐私原理,并通过添加噪声来模糊化输入。采用联邦学习,用户数据永远不会脱离其设备或机器。这些机器学习模型足够智能,并且只占用很小的内存,可以在手机上运行并利用本地数据进行学习。

通常来说,获取某个用户的数据是为了个性化他的使用体验。例如,Google邮箱获取用户的输入行为来提供自动化输入建议。那通过数据或模型来提升一大群人而不仅仅是个人的体验是个好主意吗?人们愿意共享他们已经训练好的模型(而非数据)来造福他人吗?这是一个有趣的商机:支付费用购买用户在本地设备上用本地数据训练出来的模型参数,还可以让他们利用本地算力来帮你训练模型(比如在他们的手机比较空闲时)。

3、稳健的模型部署变得至关重要

当前,企业在生产兼具可扩展性和可靠性的模型时显得很挣扎。模型编写人员并不一定是具备安全意识和性能意识的模型部署方面的专家。一旦机器学习模型被集成进主流程中并成为关键应用,将不可避免地面对针对模型的攻击,就像当前主流应用正面对着服务拒绝攻击一样。我们已经遇见过一些低技术含量的例子,例如:使一辆Tesla该减速时反而加速,随意变道,毫无征兆地紧急停车,或者在没有触发的情况下启动雨刷器。想象一下类似攻击发生在诸如金融系统和医疗设备这种高度依赖AI/ML的产品上会造成什么样的影响?

目前,对抗性攻击仅限于学术研究,以更好地理解模型的含义。但要不了多久,针对模型的攻击就将以“牟取暴利”为目的:你的竞争对手可能想以此证明他们比你更好;丧心病狂的黑客可能会以此勒索你。例如,今天新的网络安全工具依赖AI/ML来识别诸如网络入侵和病毒之类的威胁。那如果我能够触发虚假的威胁呢?区分真实威胁和虚假威胁的成本需要多少?

为了应对这类威胁,企业需要更加重视模型验证来确保其健壮性。一些企业已经开始使用对抗网络来测试深度神经网络。如今,我们会聘请外部专家来审核网络安全和物理安全等。那么同样的,我们将会看到模型测试专家和模型安全专家这一新兴市场的出现,他们将负责测试和认证模型,并可能会为某些模型故障承担责任。

接下来会怎样?

期待从AI投资中获取价值的企业,需要重新审视其对他们数据管道的影响。我上面所述的趋势,强调了企业必须对其生产中的AI/ML方案施以强有力的治理。假设你的模型足够健壮是危险的想法,尤其是这些模型要交付给平台提供商折腾的时候。因此,当下最需要的是有能了解模型工作或不工作原因的内部专家。这也是一个趋势,并且将长期保持下去。

https://venturebeat.com/2020/03/08/3-important-trends-in-ai-ml-you-might-be-missing/


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港