戴莉娟/文 3月28日,Google发布了《2023 年广告安全报告》。报告指出,2023 年Google 屏蔽或移除了超过 55 亿条广告,这一数字相比前一年略有上升;中止了超过 1270 万个广告主账号,处置数量较前一年接近翻倍。
值得注意的事,作为2023年重要趋势的生成式AI技术也成为该报告的主题。这一新技术给数字广告行业带来了激动人心的显著变化,从效果优化到图片编辑。当然,生成式 AI 也带来了新的挑战,Google 高度重视这些挑战,并将介绍为了积极应对这些挑战而正在进行的工作。Google 的团队正在利用这项变革性技术,尤其是大语言模型(LLM),以更好地保护用户在网上的安全。即生成式AI作为一种工具,既可以用来创建不良广告,也可以用来发现不良广告。
生成式 AI 改善了执行力
Google 的安全团队很早就在使用 AI 驱动的机器学习系统来进行大规模政策执行。多年来,正是得益于这样的系统,Google 才得以在被用户看到之前,就检测到并屏蔽数十亿条不良广告。然而,尽管这些机器学习模型仍十分先进,但它们以往都需要经过大量的训练,往往依赖于数十万乃至数百万例违规内容的样本。
而 LLM 则可以快速审核并解读海量内容,同时还能从这些内容中捕捉到重要的细微差异。这些先进的推理功能已经让 Google 能够对一些较为复杂的政策,做出更大规模、更精准地违规处置决策。例如,Google 制定政策来打击不可靠金融产品的声明,这其中包括宣传快速致富方法的广告。这些广告背后的恶意行为者变得越来越狡猾。他们会针对新的金融服务或产品(如投资建议或数字货币)调整策略,定制广告内容,以欺骗用户。
当然,传统的机器学习模型也被训练用于检测出这些违规行为。然而,金融趋势的快速变化和持续演进,有时也让这些模型难以区分哪些是合法内容,哪些是虚假服务,也就难以快速扩展Google 的自动化违规处置系统以打击欺诈。LLM 则更善于快速了解金融服务的新趋势,并识别出那些滥用这些趋势,将快速致富欺诈伪装成合法业务的恶意行为者的模式。这让 Google 的团队在面对新兴的各种威胁时,能够更加机动灵敏。
利用 LLM 的力量来保障广告安全而言,Google 只是刚刚开始。去年公开发布的 Gemini 是 Google 最强大的 AI 模型,Google 也很高兴能开始将它先进的推理功能应用到广告安全和违规处置工作中。
保护用户免遭欺诈和诈骗
2023 年,综合所有线上平台来看,诈骗和欺诈活动有增无减。恶意行为者不断变换手法来操纵数字广告,企图诈骗用户与合法商家。面对变化多端的威胁,Google 迅速更新了政策,部署了快速响应违规处置团队,同时改进了Google 的检测技术。
●在 11 月份,Google 推出了有限广告投放政策,针对 Google 不太熟悉的广告主限制其广告覆盖,以此来保护用户。根据这项政策,针对那些尚未建立起良好行为记录的广告主,Google 设置了一个“熟悉期”,在此期间,某些情况下他们的广告展示次数可能会受到限制,比如,广告主与其广告中所提及的品牌关系不明确。尽管仍处于早期阶段,最终,有限广告投放政策将帮助确保动机良好的广告主能够与用户建立起信任,同时限制恶意行为者的覆盖面,降低出现诈骗和误导性广告的风险。
●保护用户免遭网络伤害的一个关键部分在于 Google 迅速应对新的滥用趋势的能力。在 2023 年末到 2024 年初这段期间,Google 面临一种有针对性的广告滥用行为,利用对公众人物的喜爱欺诈用户,这些行为往往都使用了深度伪造(deepfakes)技术。检测到这种威胁后,Google 立即组建了一个专门的团队加以应对。Google 锁定了这些恶意行为者的行为模式,对自动违规处置模型加以训练从而检测到类似的广告,之后便开始大规模移除这些广告。此外,Google还更新了虚假陈述政策,便于Google 快速中止恶意行为者的账号。
总体来看,2023 年 Google 屏蔽或移除了 2.065 亿条违反虚假陈述政策的广告(包括以多种手法实施诈骗的广告),以及 2.734 亿条违反金融服务政策的广告。Google 还屏蔽或移除了超过 10 亿条违反“滥用广告网络”政策的广告(包括宣传恶意软件的广告)。
随着生成式人工智能的使用不断增加,行业内的广告欺诈和限制可能会越来越多。虽然人工智能和机器学习越来越多地检测到广告不通过,但广告主必须保持积极主动的态度,监控自己的账户,以防潜在的虚假标记。