愚人节当天,知名YouTuber小玉上传了一则影片,画面中显示高雄市长HGY身穿蓝色衬衫,用夸大的言词说着无俚头的话。原来,这是小玉为了向民众呼吁假新闻的风险,而利用Deepfake技术所制造出来的假影片。该影片很快就上了热门影片排行,掀起网友热议。
Deepfake是一种透过人工智能(AI)中的deep learning(深度学习)技术所创造出的fake(伪造)信息。Deepfake技术可以用于影像及声音,只需要仿造对象的人物影音素材,就能制造出唯妙唯肖的假影片。
如今,Deepfake在西方国家已经成为国际媒体频繁讨论的焦点。美国前总统奥巴马、Facebook创始人马克 扎克伯格等名人的Deepfake影片近年来层出不穷,俨然成了有心人士在网络信息战上操弄风向的关键武器。可怕的是,不是工程师也可以办得到。
小玉在影片中就表示:「(影片所使用的技术)是我花了150元人民币买下的AI换脸软件,只要花30分钟的时间和一个配音员,我可以让HGY说出任何我想要他讲的话。」
的确,在Github等程序源代码平台上,开源的Deepfake技术大幅降低了应用门槛,让人轻松下载就能使用各式换脸App,要做出一个简单的Deepfake影片并非难事。也正是因此这个原因,Facebook在今年1月祭出强硬措施,下架Deepfake影片,而Twitter也在2月时跟进。
令人担心的是,从Deepfake衍生的问题,可不光只是假消息。
逾9成明星A片都是假的,「深伪色情」一般人更难防
一项新科技所带来的威胁,有可能会不断演变、拓展到不同领域。Deepfake一词于2017年首次出现时,人们最担心的,是它在色情影片上的应用。
AI创业公司Deeptrace在去年的报告显示,截至目前,网络上仍有高达96%的Deepfake影片,是未经当事人许可下合成的色情影片。上传这些色情影片的论坛累计超过1.34亿次的浏览量,Gal Gadot和Scarlett Johansson等上百位国际女星都是受害者。
明星或许还有名气作为最后一层防护,但对一般人而言就不同了。社会新闻中,情侣分手后用「报复性色情影片」(Revenge Porn)要挟的事件屡见不鲜,但当报复性色情影片遇上Deepfake,恐怕将唤起人们心中最深层的恐惧。
2018年,一位印度的调查记者拉娜 艾雅伯(Rana Ayyub)在揭露了一则关于克什米尔女孩性侵事件的两天后,在Whatsapp上看到社交网络上疯传以她为主角的Deepfake色情影片。她自己的社交平台被不雅影片的截图洗版,而她却不知道如何向别人说明影片中的人并不是她。
加拿大起家的新媒体Vice就曾派旗下记者实际到网络上找人定制Deepfake色情影片,结果只花了约216元人民币就得到了成品,说明Deepfake已经有了成熟的的商业模式。
这就是Deepfake的恐怖之处,只要找到门路,任何人都能将你没有说过的话、没有做过的事给强加给你。不过,既然Deepfake是以AI作为武器,以其人之道还治其人之身,「AI攻防战」似乎是最主要的解套方式。
来自AI的黑暗威胁,假消息攻防战没人能幸免
以查破社交平台假账号起家的以色列新创Cyapa,近来就成功研发侦破Deepfake的AI技术,并以该技术在今年2月的科技挑战赛中获得亚军。Cyapa全球业务副总裁阿赛夫 丹比(Assaf Danby)表示,通过他们所开发的AI算法揪出Deepfake影片,准确率可达97%。
他们是怎么做到的?他们研究影片的分辨率及压缩率等数值,并拿来分析人物脸部表情及肢体动作是否自然。
好比说,戴上眼镜后人脸焦距的变化是否正确?嘴唇的动作与下巴及喉结肌肉的连动状况有无异状?「我们能够一帧一帧地检验影片的真伪。」丹比说。
Cyapa今年的任务,本来是与美国国务院合作,为2020年美国总统大选防堵假信息。但自从XGBD爆发以来,查核不实信息就成了他们的主要目标。「3月底时我们就发现,有一个以国际药厂Roche(罗氏)为名的影片,声称他们做出了疫苗。」
从色情影片威胁、到各种议题的信息操作,随着Deepfake技术日新月异,涉及的犯罪领域也不断扩大。丹比预测,下一波Deepfake攻击可能将锁定网络银行的用户。「愈来愈多用户选择通过视频电话来开户,而Deepfake影片也能伪造某人身分,在视频电话中通过银行的人脸辨识系统审查。」
说到底,技术毕竟是中性的。对丹比来说,AI是世界正式踏入「人类世」的证据。「这项技术将继续改变人类的生活无论是好是坏,」他说,「或许人类世所代表的,就是我们在好坏之间拉锯,与AI共舞的时代。」
在这些真假难辨的信息中,唯有一件事情是肯定的,那便是人们对于「真相」的理解将重新被改变。