关于人工智能(AI)的威胁,美国科幻大片为我们设想了很多场景,比如AI对人类完全取而代之。但和此类遥远的设想相比,这些担忧目前可能更切合实际:AI令网络安全面临来自新维度的威胁。
会计师事务所毕马威的安全专家Greg
Bell、Cliff Justice、Tony Buffomante以及Ken
Dunbar等人在《哈佛商业评论》撰文称,和其他任何技术一样,AI技术如果应用不当,同样会给企业立即带来网络安全威胁,从而令业务运营受到冲击。他们写道:
犯罪分子暗地里利用类似技术已经有很多年,他们通过使用一种被称为“僵尸网络”的概念,在成千上万台电脑中植入很少量的代码,从而模仿出成千上万用户的行为,用来实现大规模的网络攻击以及发送垃圾邮件和短信,甚至通过DoS(拒绝服务)攻击令网站长时间无法访问。
他们认为,在当前的数字化世界中,企业对数据分析以及与消费者进行网络互动的依赖更大,企业高管就不能忽视这些现存的安全风险。而随着AI技术的崛起,独特的新型网络安全风险也相伴而生。
文章称,最理想的状态是,AI系统用于模仿最有能力的人类大脑的决策过程。但是,如果向其输入信息的人类行为出问题,比如公司内部不满的员工或者外部人员恶意破坏,就可能劫持系统,将误导性或者不准确的数据输入进去,或者通过保留关键信息而令系统为其掌控,也可能让电脑不当地处理数据。
文章认为,如果AI系统遭到恶意破坏,或者被人为输入不准确的信息,就可能将不准确的信息判断为“准确”,或者“学习”到坏习惯。
因为大多数AI系统通常使用不会过期的密码,黑客就能够通过“机器人”(bot)使用相同的登陆信息获得比普通人能够获得的更多信息。而安全监测系统通常的设定是对“机器人”登陆予以忽视,从而避免对数量巨大的登陆信息逐一记录。
这就能让恶意的入侵者伪装成“机器人”,从而能在相当长时间内获得登陆权限,且基本不会被探测到。
他们表示,在某些情况下,人们试图利用新技术时也可能引发一些后果,尽管可能是无意的,但却会给整个组织带来伤害。他们以微软的聊天机器人为例写道:
一个典型的案例是,微软在Twitter上的聊天机器人Tay最初设计是用来和年轻人自然交流,但是在上线后,很快被人发现其学习算法的弱点,被灌输以大量种族歧视、性别歧视和同性恋歧视内容。结果是,Tay开始面向数百万粉丝发出不当内容。