据智慧科技迷,随着科技的发展,人工智能知道的越来越多,比如ChatGPT,结果被多家企业甚至多国禁用。但禁用不是长久之计,毕竟发展趋势是谁也挡不住的。如何判断AI知道的太多,甚至访问了敏感数据?这可能是安全使用AI的第一步。近日,来自英国萨里大学的科学家给出一个可行的解决方案。他们开发出一款网络软件,该软件可以判断AI真正知道多少知识,值不值得合作,是否知道的太多。相关研究成果已被FM 2023国际会议收录。
在许多应用中,AI系统需要与人类交互,比如自动驾驶汽车,ChatGPT聊天机器人等。要安全地使用这种类型的人工智能,首先要弄清楚这些AI知道什么,是否知道的太多而破坏隐私等。为此,科学家开发了一种通用编程语言程序,该程序能够推理自己的知识。为了判定指定AI的知识,科学家定义了一个“程序认知论”的逻辑,包括基于现在的事实对未来事态发展进行推演,这种推演只有在和需要测定的AI系统相结合执行才成立,比如在隐私方面,验证程序将变量设置为部分可见,只有当与被测试的AI系统相结合才能识别出全局变量。他们使用最弱的前提条件以验证AI逻辑的有效合理性。
该软件可以推断出AI可以从人们的互动中学到多少东西,是否有足够的知识进行合作,是否知道的太多而破坏隐私。通过验证人工智能的知识以及学习能力,人类才能有信心将它放到安全的环境中使用。在过去几个月里,由于ChatGPT的出现,人们开始对生成式AI模型大感兴趣,因此该验证工具的出现为安全使用这些AI系统至关重要。