据外媒,来自OpenAI的研究人员发现,其机器视觉系统CLIP可被简单的工具欺骗,只需写下一个物体的名称,并将其贴在另一个物体上,就足以欺骗AI软件,研究人员将这些攻击称为排版攻击,通过利用模型阅读文本的能力,即使是手写文字的照片也经常可以欺骗模型,这种攻击类似于可以愚弄商业机器视觉系统的对抗性图像。
研究表明,对抗性图像的实际危险要更大,只需在道路上放置某些贴纸,就可以在没有警告的情况下影响特斯拉自动驾驶汽车中的软件,使其在没有警告的情况下改变车道。这种攻击对人工智能应用是一个严重的威胁。
CLIP能够执行一系列视觉识别任务。给出一组以语言形式表述的类别,CLIP能够立即将一张图像与其中某个类别进行匹配,而且它不像标准神经网络那样需要针对这些类别的特定数据进行微调。在ImageNet基准上,CLIP的性能超过ResNet-50,在识别不常见图像任务中的性能远超ResNet。
(7640580)