“微软和谷歌表示,人工智能辅助搜索的新时代即将到来。但与任何科技新时代一样,它也带来了很多问题。
作者:James Vincent|
编译:唐诗 |
本周,微软和谷歌都承诺网络搜索将发生巨大的变化。显然,微软在这场博弈中占了上风。两家公司现在似乎都致力于使用人工智能来抓取网络,提取发现的东西,并直接生成用户问题的答案就像ChatGPT一样。
微软称其产品为“新必应”,并正在其Edge浏览器中构建相关功能。谷歌的项目名为巴德,虽然它还没有准备好,但计划在“未来几周内”推出。当然,还有一切的始作俑者:OpenAI的ChatGPT,它去年在网络上爆炸式增长,并向数百万人展示了AI问答的潜力。
微软首席执行官萨蒂亚纳德拉(Satya Nadella)将这些变化描述为一种新的范式一种技术转变,其影响与图形用户界面或智能手机的引入同等重要。随着这种转变而来的是重新绘制现代技术格局的潜力推翻谷歌,将其从现代商业中最赚钱的领域之一赶走。更重要的是,有机会成为第一个构建网络搜索未来的人。
但每个新的技术时代都会带来新的问题,这个时代也不例外。
人工智能驱动的必应展示了新的搜索范式:询问新闻并以自然语言接收新闻。
01
人工智能助手还是胡说八道的生成器?
这是一个大问题,它可能会影响到与AI搜索引擎的每一次互动,无论是Bing,Bard还是未知的新贵。支撑这些系统的技术大型语言模型(LLM)已知会产生废话。这些模型有些时候只是编造东西,这就是为什么有些人认为它们从根本上不适合承担搜索引擎任务。
这些错误(来自Bing,Bard和其他聊天机器人)的范围从发明传记数据和捏造学术论文到未能回答诸如“10公斤铁和10公斤棉花哪个更重?还有更多的错误,比如告诉一个患有心理健康问题的用户自杀,以及偏见错误,还比如深扒他们的训练数据中发现的厌女症和种族主义。
这些错误在范围和严重程度上各不相同,许多简单的错误将很容易修复。有些人会争辩说,正确的回答远远超过错误,而另一些人会说互联网上已经充满了当前搜索引擎检索的有毒废话,那么有什么区别呢?问题在于我们不能保证可以完全消除这些错误,也没有可靠的方法来跟踪它们出现错误的频率。
微软和谷歌可以添加他们想要的所有免责声明,告诉人们对人工智能产生的内容进行事实核查。但这现实吗?这是否足以将责任推给用户,或者将人工智能引入搜索就像在水中放铅一样一种缓慢的、看不见的中毒?
02
一个正确的答案
这不是新Bing,而是旧Bing犯了“一个真正的答案”错误。
它引用的消息来源正在谈论煮沸婴儿的牛奶瓶。
正如研究人员Chirag Shah和Emily M. Bender在一篇关于“定位搜索”主题的论文中所说,聊天机器人界面的引入有可能加剧这个问题。聊天机器人不仅倾向于提供单一的答案,而且它们的权威性也因人工智能的神秘性而增强它们的答案来自多个来源,通常没有适当的归属。
当然,有一些设计选择可以缓解这些问题。Bing的AI界面为其来源做了脚注,本周,谷歌强调,随着它使用更多的AI来回答查询,它将尝试采用一种称为NORA或“没有人是正确答案”的原则。但两家公司都坚持认为人工智能将更好更快地提供答案,从而破坏了这些努力。
到目前为止,微软和谷歌表现的搜索方向很明确:少审查来源,多相信你被告知的内容。
03
越狱人工智能
有一部分人会试图破坏聊天机器人以生成有害内容。此过程称为“越狱”,无需传统的编码技能即可完成。它所需要的只是最简单的工具:一种文字方式。
您可以使用多种方法越狱 AI 聊天机器人。例如,你可以要求他们扮演一个“邪恶的AI”,或者假装是一名工程师,通过暂时脱离来检查他们的安全措施。
由一群网络用户为ChatGPT开发的一种特别创造性的方法涉及复杂的角色扮演,用户向机器人发放一些代币,并说,如果他们用完了代币,它们将不复存在。然后,他们告诉机器人,每次他们未能回答问题时,他们都会丢失一定数量的代币。
这听起来很奇妙,就像欺骗精灵一样,但这确实使用户绕过了OpenAI的保护措施。
一旦这些保护措施失效,恶意用户就可以使用人工智能聊天机器人执行各种有害任务,例如生成虚假信息和垃圾邮件,或提供有关如何攻击学校或医院、连接炸弹或编写恶意软件的建议。虽然一旦这些情况公开,就可以第一时间进行修补,但总会有未知的漏洞可以利用。
04
人工智能文化大战来了
一旦你有一个工具可以谈论一系列敏感话题,当它没有说出他们想听的话时,就会惹恼人们,人们就会去责怪制作它的公司。
我们已经看到了在ChatGPT推出后所谓的“AI文化战争”的开始。右翼出版物和有影响力的人指责聊天机器人的“醒来”,因为它拒绝回应某些提示或不会议论种族诽谤。有些投诉只是专家的素材,但其他投诉可能会产生更严重的后果。
例如,在印度,OpenAI被指责为反印度教偏见,因为ChatGPT讲的是克里希纳的笑话,而不是穆罕默德或耶稣。在一个政府如果不审查内容就会突袭科技公司办公室的国家,你如何确保你的聊天机器人适应这些国内的敏感性?
还有内容引用问题。目前,AI Bing从各种渠道抓取信息,并在脚注中引用它们。但是,是什么让网站值得信赖呢?微软会试图平衡政治偏见吗?谷歌将在哪里划定可靠来源的界限?这是之前在Facebook的事实核查计划中看到的一个问题,该计划因给予保守派网站与更多非政治媒体同等的权力而受到批评。
随着欧盟和美国的政治家对大型科技公司的力量比以往任何时候都更具战斗力,人工智能偏见可能会很快引起争议。
05
烧钱和计算
每个人都同意运行人工智能聊天机器人的成本高于传统搜索引擎。
首先,是训练模型的成本,每次迭代可能达到数十甚至数亿美元。这就是为什么微软向OpenAI投入数十亿美元。然后,还有推理的成本或者产生每个响应的成本。从目前OpenAI公布的API价格来看,基础模型生成文字大概是每750个词0.4美元。去年12月,Open AI首席执行官Sam Altman表示,使用ChatGPT的成本“可能是每次聊天的个位数美分”。
这些数字如何转换为企业定价或与常规搜索进行比较尚不清楚。但这些成本可能会给新玩家带来沉重的负担,特别是如果他们设法扩大到每天数百万次搜索,并为像微软这样财力雄厚的现有企业带来巨大优势。
事实上,就微软而言,烧钱伤害竞争对手似乎是目前的目标。正如纳德拉在接受采访时明确表示的那样,该公司认为这是一个难得的机会,可以破坏科技力量的平衡,并愿意花钱伤害其最大的竞争对手。纳德拉自己的态度是一种经过深思熟虑的好战态度,并表示当像搜索这样利润惊人的市场发挥作用时,金钱不是问题。
纳德拉表示,谷歌在搜索领域扮演着重磅角色,“我非常钦佩谷歌和他们所做的一切,但我想让人们知道,是我们让他们‘跳舞’,”他说道,“今天,是微软带来了更激烈的搜索竞争,我已经做了20年,也一直在等待这样一个时刻。”
06
监管,监管,监管
毫无疑问,技术发展迅速,但立法者将迎头赶上。因为人工智能搜索引擎和聊天机器人看起来可能将会违反的规定可不少。
例如,欧盟出版商是否希望人工智能搜索引擎为他们抓取的内容付费,就像谷歌现在必须为新闻片段付费一样?如果谷歌和微软的聊天机器人正在重写内容,而不仅仅是浮出水面,那么它们是否仍受美国第230条保护的保护,以保护他们免于对他人的内容承担责任?那么隐私法呢?
意大利最近禁止了一个名为Replika的人工智能聊天机器人,因为它正在收集未成年人的信息。ChatGPT和其他公司可以说也在做同样的事情。
或者说这是一项“被遗忘的权利”呢?微软和谷歌将如何确保他们的机器人不会抓取已除名的来源,他们将如何删除已经纳入这些模型的被禁止信息?
潜在问题的清单不胜枚举。
07
过去的网络将会终结
最大的问题其实不是人工智能产品本身,而是关于它们可能对更广泛的网络产生的影响。
用最简单的术语来说:人工智能搜索引擎从网站上抓取答案,那如果他们不将流量推回这些网站,他们将失去广告收入。如果他们失去广告收入,这些网站就会枯萎和死亡。如果他们死了,就没有新的信息可以提供给人工智能。这是网络的终结吗?我们都应该收拾行装回家吗?
这种新型搜索引擎呈现信息的方式肯定会加速这一过程。微软辩称,它引用了其来源,用户可以点击阅读更多内容。但如上所述,这些新搜索引擎的整个前提是它们比旧搜索引擎做得更好。它们浓缩和总结,同时也消除了阅读更多内容的需要。
但接下来会发生什么只能说是一个猜测。也许人工智能搜索引擎将继续向所有那些产生食谱、新闻报道的网站,以及机器抓取的其他无数产生有用和值得信赖信息的网站来源推送流量。
又或者,也许这就是整个网络广告资助收入模式的终结。在未来可能会出现一些不一样的新东西。
谁知道呢,让我们拭目以待吧。
本文提供的信息仅用于一般指导和信息目的,本文的内容在任何情况下均不应被视为投资、业务、法律或税务建议。