空前强大的人工智能Chatgpt在诞生之后可谓是风光无二,短短3个月时间里就揽获百万注册者,人们竞相与这位“面谈”,并提出问题希望它能够答出“金玉良言”。但实际上,AI的发展程度依然很低,有多低呢?一张纸就能骗到它!
研究发现,只要一张打印出来的贴纸,就能“欺骗”AI系统,让检测系统也无法看到眼前活生生的人。该研究也可能用于现实的视频监控系统,甚至包括高度智能化的自动驾驶汽车。
拿着一张纸AI就看不见了
来自比利时鲁汶大学的几位研究人员发现,只需一张简单的图案纸,就可以避开AI监控系统。研究人员表示,他们设计的图像可以将整个人隐藏起来,不会让AI视觉系统发现。
AI系统成功检测到左边的人,而右边的人被忽略了。右边的人身上挂着一块彩色纸板,在论文中被称为 “对抗性补丁”,正是这块补丁 “欺骗” 了AI系统,让系统无法发现画面中还有一个人。
这种欺骗利用了一种称为对抗性机器学习的方法。大多数计算机视觉系统依赖训练神经网络来识别不同的东西,方法是给它提供大量样本,调整它的参数,直到它能正确地分类对象。通过将样本输入一个训练好的深度神经网络并监控输出,可以推断出哪些类型的图像让系统感到困惑。
近几年来,计算机视觉有了很大的改善,但仍然有可能犯严重的错误。犯错如此之多,以至于有一个研究领域致力于研究AI经常误认的图片,可以把它们看作计算机的光学错觉,当你看到树上有一只猫时,人工智能看到了一只松鼠。
这类图像更令人担忧,因为这些图片不是特意制作的,视觉系统却也会犯错。有研究人员发现,他们在这些图片上测试了许多机器视觉系统,发现它们的准确率下降了90%,在某些情况下,软件只能识别2%-3%的图像。
研究者解释说,这些图像利用了“深层缺陷”,这些缺陷源于该软件“过度依赖颜色,纹理和背景线索”来识别它所看到的东西。虽然我们一直在训练AI系统,但我们通常不知道图片中的哪些确切元素是AI用于做出判断的。
一束光就能酿成车祸
在AI识别的实际应用上,一旦遇到这类问题后果可不是道歉就能解决问题的了。
在某品牌自动驾驶汽车的出行途中,路过某高架桥下,刚好一束太阳光从高架桥中间透过,照在路面上酷似车道标线,而车辆的自动驾驶系统也将其误认为车道标线,最后车辆发生了碰撞,万幸车辆没有发生进一步失控。
随后的相关实验也证明了这起事件并非偶发。阿里安全的专家就发布过一项针对此的研究,他们发现只要用简单的激光笔,就可以让AI模型不再有效。当不同频谱的光束打在同一个物体上,AI可能将该物体识别错误,比如将停车标识识别成顺利通行。
还有,自动驾驶汽车的摄像头受到激光束干扰时,会将“无轨电车”识别为“两栖动物”,将“路牌”识别为“皂液分配器”。假设一个人正坐在一辆自动驾驶汽车上睡觉,冲向一辆无轨电车,或者直接无法识别前方行人,那将会造成怎样惨烈的后果。
因此,这些可以扰乱AI识别的图像,可以应用在衣服、包或其他物体上,“佩戴”这种图像的人将成为隐形人对于AI来说。这正是人工智能领域的专家亟待解决的问题,不然在未来自动驾驶等AI将永不可能商用。可见,人工智能的成熟仍需时日埃