展会信息港展会大全

OpenAI 开发新工具,试图解释语言模型的行为
来源:互联网   发布日期:2023-05-11 14:30:00   浏览:2900次  

导读:IT之家 5 月 10 日消息,语言模型是一种人工智能技术,可以根据给定的文本生成自然语言。OpenAI 的 GPT 系列语言模型是目前最先进的代表之一,但IT之家注意到它们也有一个问题:它们的行为很难理解和预测。为了让语言模型更透明和可信,OpenAI 正在开发一种...

IT之家 5 月 10 日消息,语言模型是一种人工智能技术,可以根据给定的文本生成自然语言。OpenAI 的 GPT 系列语言模型是目前最先进的代表之一,但IT之家注意到它们也有一个问题:它们的行为很难理解和预测。为了让语言模型更透明和可信,OpenAI 正在开发一种新工具,可以自动识别语言模型中哪些部分对其行为负责,并用自然语言进行解释。

OpenAI 开发新工具,试图解释语言模型的行为

这个工具的原理是利用另一个语言模型(也就是 OpenAI 最新的 GPT-4)来分析其他语言模型(比如 OpenAI 自己的 GPT-2)的内部结构。语言模型由许多“神经元”组成,每个神经元都可以观察文本中的某种特定模式,并影响模型下一步的输出。例如,给定一个关于超级英雄的问题(比如“哪些超级英雄有最有用的超能力?”),一个“漫威超级英雄神经元”可能会提高模型提到漫威电影中特定超级英雄的概率。

OpenAI 的工具就是利用这种机制来分解模型的各个部分。首先,它会将文本序列输入到被评估的模型中,并等待某个神经元频繁地“激活”。然后,它会将这些高度活跃的神经元“展示”给 GPT-4,并让 GPT-4 生成一个解释。为了确定解释的准确性,它会提供给 GPT-4 一些文本序列,并让它预测或模拟神经元的行为。然后它会将模拟的神经元的行为与实际神经元的行为进行比较。

“通过这种方法,我们基本上可以为每个神经元生成一些初步的自然语言解释,并且还有一个分数来衡量这些解释与实际行为的匹配程度。” OpenAI 可扩展对齐团队负责人 Jeff Wu 说,“我们使用 GPT-4 作为过程的一部分,来生成对神经元在寻找什么的解释,并评估这些解释与它实际做什么的匹配程度。”

研究人员能够为 GPT-2 中所有 307,200 个神经元生成解释,并将它们编译成一个数据集,与工具代码一起在 GitHub 上以开源形式发布。像这样的工具有朝一日可能被用来改善语言模型的性能,比如减少偏见或有害言论。但他们也承认,在真正有用之前,还有很长的路要走。该工具对大约 1000 个神经元的解释很有信心,这只是总数的一小部分。

有人可能会认为,这个工具实际上是 GPT-4 的广告,因为它需要 GPT-4 才能运行。但 Wu 说,这并不是这个工具的目的,它使用 GPT-4 只是“偶然”的,而且,相反它显示了 GPT-4 在这方面的弱点。他还说,它并不是为了商业应用而创建的,并且理论上可以适应除了 GPT-4 之外的其他语言模型。

“大多数解释的分数都很低,或者没有解释太多实际神经元的行为。” Wu 说,“很多神经元的活动方式很难说清楚 比如它们在五六种不同的东西上激活,但没有明显的模式。有时候有明显的模式,但 GPT-4 却无法找到。”

更不用说更复杂、更新、更大的模型,或者可以浏览网页获取信息的模型了。但对于后者,Wu 认为,浏览网页不会太改变工具的基本机制。他说,它只需要稍微调整一下,就可以弄清楚神经元为什么决定进行某些搜索引擎查询或访问特定网站。

“我们希望这将开辟一个有前途的途径,来以一种自动化的方式解决可解释性问题,让其他人可以建立在上面并做出贡献。” Wu 说,“我们希望我们真的能够对这些模型的行为有好的解释。”

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港