人工智能初创企业OpenAI的董事会将有权否决公司CEO推出新版本模型的决定。
当地时间12月18日,OpenAI在官方网站发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。
OpenAI解释说,对前沿人工智能风险的研究,远远没有达到需求。为了解决这一差距并使安全思维系统化,OpenAI正在采用“准备框架”的测试版本。
OpenAI“准备框架”测试版本文件截图,来自官网
OpenAI在新闻稿中宣布,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现,包括潜在的网络安全问题、化学威胁、核威胁和生物威胁,并努力减少该技术可能造成的任何危害。
具体来看,OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。
据悉,OpenAI在10月份宣布成立“准备团队”,是这家初创公司负责监督人工智能安全的三个独立小组之一。此外还有“安全系统(safety systems)”,着眼于当前的产品,例如GPT-4;以及“超级对齐(superalignment)”,重点关注未来可能诞生的、可能极其强大的人工智能系统。
Aleksander Madry负责领导准备团队。在接受彭博社采访时,Madry表示,他的团队将向新的内部安全咨询小组发送月度报告,该小组将分析Madry团队的工作,并向CEO山姆奥特曼以及公司董事会提出建议。
Madry表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,针对不同类型的感知风险,将其评级为“低”“中”“高”或“严重”。该团队还将做出改变,以减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的安全指南,OpenAI未来仅会推出评级为“中”或“低”的人工智能模型。
值得注意的是,根据安全指南,奥特曼和他的领导团队可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。
近日,奥特曼和董事会之间的宫斗大战吸引了全世界的关注,在这场内斗落幕之后,董事会已经发生了巨大的变化,同时也引发了外界对于人工智能安全的又一次思考。
今年4月,一群人工智能行业领袖和专家签署了一封公开信,呼吁在未来六个月内暂停开发比GPT-4更强大的系统,理由是人工智能对社会有着潜在风险。咨询公司益普索(Ipsos)在今年5月份推出的一项民意调查发现,超过三分之二的美国人担心人工智能可能带来的负面影响,有61%的人认为它可能威胁人类文明。