人工智能语言模型最近成为了美国文化战争的最新前沿。右翼评论员指责 ChatGPT 存在所谓的“觉醒偏见”,保守派团体已经开始开发自己“阵营”的人工智能聊天机器人。
与此同时,埃隆马斯克(Elon Musk)表示,他正在开发“TruthGPT”,这是一种“最大限度寻求真相”的语言模型,与 OpenAI 和谷歌创建的“政治正确”聊天机器人既然不同。
一个公正、纯粹基于事实的人工智能聊天机器人是一个可爱的想法,但从技术上讲是不可能的。马斯克尚未透露他的 TruthGPT 会包含什么样的细节,可能是因为他忙于思考 X(原推特公司)和与马克扎克伯格(Mark Zuckerberg)的八角笼之战。
我们最近的一篇报道揭示了政治偏见是如何进入人工智能语言系统的。研究人员对 14 个大型语言模型进行了测试,发现 OpenAI 的 ChatGPT 和 GPT-4 是最左翼的自由主义者,而 Meta 的 LLaMA 是最右翼的威权主义者。
卡内基梅隆大学的博士研究员帕克陈(Chan Park)参与了这项研究,他告诉我:“我们相信没有一种语言模型可以完全摆脱政治偏见。”
关于人工智能最广为流传的一个说法是,该技术是中立和公正的。这是一个危险的叙事,它只会加剧人类信任计算机的倾向,即使计算机是错误的。事实上,人工智能语言模型不仅反映了其训练数据中的偏见,还反映了创建和训练这些模型的人的偏见。
美国达特茅斯学院计算机科学助理教索鲁什沃苏吉(Soroush Vosoughi)表示,众所周知,用于训练人工智能模型的数据是这些偏见的主要来源,但是我的研究表明偏见蔓延于模型开发的几乎每个阶段。
人工智能语言模型中的偏见是一个特别难以解决的问题,因为我们并不真正了解它们是如何产生结果的,而且我们减轻偏见的过程也不完美。这在一定程度上是因为偏见是复杂的社会问题,没有简单的技术解决方案。
这就是为什么我坚信,诚实是最好的政策。这样的研究可以鼓励公司跟踪和绘制模型中的政治偏见,并对客户更加直率。例如,他们可以明确说明已知的偏见,这样用户就可以对模型的输出持保留态度。
(来源:STEPHANIE ARNETT/MITTR | MIDJOURNEY (SUITS))
本着这种精神,今年早些时候 OpenAI 告诉我,它正在开发能够代表不同政治和世界观的定制聊天机器人。一种方法是允许人们对他们的人工智能聊天机器人进行个性化设置。这也是沃苏吉的研究重点。
正如一篇经过同行评审论文中所述,沃苏吉和他的同事创建了一种类似于 YouTube 推荐算法的方法,但用于生成式模型。他们使用强化学习来指导人工智能语言模型的输出,从而生成某些政治意识形态或消除仇恨言论。
OpenAI 使用一种名为“通过人类反馈强化学习”的技术,在人工智能模型上线之前对其进行微调。沃苏吉的方法可以使用强化学习来改进模型发布后生成的内容。
但在一个日益两极分化的世界里,这种程度的定制可能会带来好的和坏的结果。虽然它可以用来消除人工智能模型中的糟糕或错误信息,但它也可以用来产生更多的错误信息。
“这是一把双刃剑,”沃苏吉承认。
作者简介:梅丽莎海基莱(Melissa Heikkil)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。
支持:Ren