展会信息港展会大全

布鲁金斯学会报告:人工智能安全政策知易行难
来源:互联网   发布日期:2020-06-24 07:56:39   浏览:12959次  

导读:6月9日,美国国家级智库布鲁金斯学会发布报告《如何为人工智能提升网络安全》,指出在利用人工智能对抗网络攻击的同时,人工智能算法模型自身的安全更加重要,而这不仅是一个技术问题,也是一个政府策略和政策问题。 2017年初,《阿西洛马人工智能原则》发表...

布鲁金斯学会报告:人工智能安全政策知易行难

6月9日,美国国家级智库布鲁金斯学会发布报告《如何为人工智能提升网络安全》,指出在利用人工智能对抗网络攻击的同时,人工智能算法模型自身的安全更加重要,而这不仅是一个技术问题,也是一个政府策略和政策问题。

布鲁金斯学会报告:人工智能安全政策知易行难

2017年初,《阿西洛马人工智能原则》发表,共23条。其中第6条就AI的安全性指出:人工智能系统在整个运行过程中应该安全和可靠,并在适用且可行的情况下可验证其安全性。

3年多过去,如何让人工智能系统安全可靠却仍迷雾重重。人工智能行业快速发展,在健康医疗、金融贸易、交通运输等领域的应用日趋精密,也让安全问题愈加复杂。

如今,对这一话题的讨论聚焦于机器学习算法到底能够发挥多大作用来实现自动监测攻击意图并做出反应,从而识别计算机漏洞并抵御威胁。

但反过来也有人担心AI会被用于恶意目的,这就会让网络攻击更加难以屏蔽和抵御,因为AI能让恶意软件更快速调整来应对安全软件的反制。

在此背景下,还经常有一些国家政府会考虑人工智能的安全应用,如英国就有官方报告强调应该把AI融入网络防御中,因为AI能够“监测和消除威胁,反应速度还比人工决策要快得多”。

于是,AI系统自身的安全性就变得十分相关和突出,而不仅是AI如何提升数据和网络安全。在安全威胁快速演化的当下,利用AI安全解决方案变得十分迫切,更加大了AI自身安全的紧迫性。

如果我们要依赖机器学习算法来监测和应对网络攻击,那么更重要的就是这些算法本身不能被干预、打破和误用。随着许多核心功能和服务的安全性对AI愈加依赖,攻击相关算法所获取的利益也变得更大,一旦攻击成功所造成的后果也会更严重。

人工智能已成为一项在许多领域被广泛使用的重要科技,政府决策者们也会发现网络安全和AI的结合更加必要。

布鲁金斯学会报告:人工智能安全政策知易行难

确保决策机制的安全

AI系统的一大安全风险就在于坏人有可能破坏决策过程的完整性,从而让AI系统无法按设计初衷做出正确决策。比起直接控制系统来改变决策,攻击者还可能通过一些细微、间接的方式来影响系统决策,比如把恶意的输入数据或训练数据喂给AI模型。

以自动驾驶汽车为例来说明上面这段话,如果要干扰车辆,令其做出错误决策甚至造成车祸,就要利用自动驾驶软件的漏洞,不过想要远程侵入软件并操纵汽车是很难做到的。

实际上有一个很简单的办法就是在道路禁行标志上涂鸦,这样基于视觉识别的算法就无法识别禁行标志。这种通过修改输入让AI系统出错的方式就叫对抗机器学习。研究人员已经发现,只要对数码图像稍作修改,哪怕这样的修改是肉眼难以发现的,也足以让AI算法完全对这些图片错误分类。

还有一种操纵输入的方式是数据投毒,也就是用不准确的、错误标注的数据来训练模型。还是借用上述例子来说的话,就是把禁行标志的图像标注为其他图像内容,那么当系统真的在路上“看到”禁行标志时就无法识别了。

上述风险表明,我们应该小心操作用于建立AI模型的训练数据集以及输入给模型的数据,才能确保基于机器学习的决策过程的安全性。不过这两件事都不简单,一方面输入数据并不受AI系统开发者的控制,另一方面开发者手里掌握的许多个人或敏感数据往往又面临数据保护和匿名化问题。

相关对抗机器学习的研究已经表明,要让AI模型对数据投毒及恶意输入具有更强鲁棒性,就要建立模型来显示更多用于训练此类模型的数据点信息。一旦使用敏感数据来训练这些模型,更多安全风险也会出现,也就是坏人能够获取训练数据或通过模型推断出这些数据。

如果要让AI模型免受这类推断攻击,就会让模型更易受到上述对抗机器学习策略的影响,反之亦然。由此可见,要确保人工智能安全性,就是要权衡这两种不同的却又相关的风险。

布鲁金斯学会报告:人工智能安全政策知易行难

AI安全性政策建议

纵观全球,各国人工智能政策主要存在两大问题:一是注重开发应用,忽视安全维护;二是安全相关政策知易行难。

过去四年里,人工智能及安全相关的政府重视和政策建议已经有了快速提升。截至2019年,有27国政府发布了官方人工智能计划或行动方案。然而,许多国家计划中的策略都聚焦于资助更多AI研究、培训专业人员、鼓励通过人工智能科技加强经济增长和创新,但对于维护AI安全却关注不够。

一些已经提出或执行AI安全相关政策的国家则强调算法和开发者透明度、测试等的重要性,却很少有国家真正能够把这些政策运用起来落到实处。

对许多国家来说,思考AI安全性的下一阶段是要弄清如何把透明度、审计等思路有效贯彻到消除不安全人工智能决策过程及模型数据泄露风险中去。

在交通、健康、执法、军事等许多关键领域,使用AI系统已经越来越普遍,也更清楚地说明决策者认真对待这些系统的安全问题有多么重要。这就要求政府部门高瞻远瞩,不仅在于自动化决策系统的经济指标和国家安全潜力,更要明白这些系统自身如何通过透明度指引、证书及审计标准等提升安全性。

以上内容仅代表作者个人观点,不代表氢云资讯观点及立场

以上内容及观点不构成任何投资建议,据此投资后果自负

客官!在看一下呗~


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港