划重点
01世界著名研究员李飞飞在Credo AI人工智能领导峰会上表示,她也不知道什么是人工通用智能(AGI)。
02李飞飞是斯坦福人本中心AI研究所的领导,她的初创公司World Labs正在构建大型世界模型。
03OpenAI首席执行官奥特曼将AGI描述为“你可以雇佣的同事的中等人类的等价物”,而OpenAI的章程将AGI定义为“在大多数经济价值工作中超越人类的高度自主系统”。
04然而,这些定义对于一家价值1570亿美元的公司来说并不够好,因此OpenAI创建了五个级别来评估其向AGI的进展。
05李飞飞表示,她对未来非常兴奋,尤其是空间智能方面,认为这将为我们带来更好的技术。
以上内容由腾讯混元大模型生成,仅供参考
图片来源:Stanford University
你对人工通用智能(AGI)感到困惑吗?这就是 OpenAI 执着于最终以“造福全人类”的方式创造的东西。你可能想认真对待他们,因为他们刚筹集了 66 亿美元以更接近这个目标。
但如果你仍然在想究竟什么是 AGI,你并不孤单。
在周四的 Credo AI 负责任的人工智能领导峰会上,世界著名研究员常被称为“人工智能教母”的李飞飞表示,她也不知道什么是 AGI。在其他时刻,李飞飞讨论了她在现代人工智能诞生中的角色,社会应该如何保护自己免受先进人工智能模型的影响,以及她为什么认为她的新独角兽初创公司 World Labs将改变一切。
但当被问及她对“人工智能奇点”的看法时,李和我们其他人一样感到困惑。
“我来自人工智能学术界,接受过更严格和基于证据的方法的教育,所以我并不太清楚这些词的意思,”李在旧金山一个挤满人的房间里说,旁边是一扇俯瞰金门大桥的大窗户。“坦率地说,我甚至不知道 AGI 是什么意思。人们说你见到它就知道,我想我还没有见过。事实上,我并不花太多时间思考这些词,因为我认为还有很多更重要的事情要做……”
如果有人知道什么是 AGI,那可能是李飞飞。2006 年,她创建了 ImageNet,这是世界上第一个大型 AI 训练和基准数据集,对催化我们当前的 AI 热潮至关重要。从 2017 年到 2018 年,她担任谷歌云的 AI/ML 首席科学家。今天,李飞飞领导斯坦福人本中心 AI 研究所(HAI),她的初创公司 World Labs 正在构建“大型世界模型”。(如果你问我,这个术语几乎和 AGI 一样令人困惑。)
OpenAI 首席执行官奥特曼在去年的 The New Yorker 采访中尝试定义 AGI。奥特曼将 AGI 描述为“你可以雇佣的同事的中等人类的等价物。”(equivalent of a median human that you could hire as a coworker.)
与此同时,OpenAI 的章程将 AGI 定义为“在大多数经济价值工作中超越人类的高度自主系统。”(“highly autonomous systems that outperform humans at most economically valuable work.”)
显然,这些定义对于一家价值 1570 亿美元的公司来说并不够好。因此,OpenAI 创建了 五个级别,用于内部评估其向 AGI 的进展。第一个级别是聊天机器人(如 ChatGPT),然后是推理者(显然,OpenAI o1 是这个级别),代理(这 supposedly 是下一个),创新者(可以帮助发明事物的 AI),最后一个级别是组织级(可以完成整个组织工作的 AI)。
仍然感到困惑吗?我也是,李也是。此外,这听起来远远超过一个普通人类同事能做到的。
李在谈话早些时候提到,自小她就对智能的概念充满了好奇。这使她在人工智能尚未盈利之前就开始研究这一领域。在 2000 年代初,李表示她和其他几个人正在悄悄为这个领域奠定基矗
“在 2012 年,我的 ImageNet 与 AlexNet 和 GPU 结合许多人称之为现代人工智能的诞生。它是由三个关键因素驱动的:大数据、神经网络和现代 GPU 计算。一旦那个时刻到来,我认为整个人工智能领域以及我们的世界都再也不同了。”
当被问及加利福尼亚州有争议的人工智能法案 SB 1047 时,李谨慎地发言,以避免重提州长纽森刚刚通过上周否决该法案而平息的争议。(我们最近与 SB 1047 的作者进行了交谈,他更愿意重新与李展开辩论。)
“你们中的一些人可能知道我对这项被否决的法案 [SB 1047] 表达过我的担忧,但现在我正在深思熟虑,并充满期待地展望未来,”李说。“我感到非常受宠若惊,或者说很荣幸,纽森州长邀请我参与后 SB 1047 的下一步。”
加利福尼亚州的州长最近邀请李以及其他人工智能专家组成一个工作组,帮助该州制定人工智能部署的保护措施。李表示,她将在这个角色中采用基于证据的方法,并将尽力倡导学术研究和资金支持。然而,她也希望确保加利福尼亚州不会惩罚技术人员。
“我们需要真正关注对人类和我们社区的潜在影响,而不是将责任归咎于技术本身……如果一辆车被故意或无意地滥用并伤害了一个人,我们惩罚汽车工程师比如福特或通用汽车是没有意义的。仅仅惩罚汽车工程师并不会让汽车更安全。我们需要做的是继续创新以实现更安全的措施,同时改善监管框架无论是安全带还是限速人工智能也是如此。”
这是我听过的针对 SB 1047 的更好论点之一,该法案将惩罚因危险 AI 模型而受到影响的科技公司。
尽管李正在为加利福尼亚州提供人工智能监管建议,但她也在旧金山经营她的初创公司 World Labs。这是李第一次创办初创公司,她是少数几位领导前沿人工智能实验室的女性之一。
“我们离一个非常多样化的人工智能生态系统还很远,”李说。“我确实相信,多样化的人类智能将导致多样化的人工智能,并将为我们带来更好的技术。”
在接下来的几年里,她很高兴能将“空间智能”更接近现实。李说,人类语言是今天大型语言模型的基础,可能花费了百万年的时间来发展,而视觉和感知则可能花费了 5.4 亿年的时间。这意味着创建大型世界模型是一项更复杂的任务。
“这不仅仅是让计算机看见,而是真正让计算机理解整个三维世界,我称之为空间智能,”李说。“我们不仅仅是为了命名事物而看……我们真正是为了做事、导航世界、相互互动而看,缩小看与做之间的差距需要空间知识。作为一名技术专家,我对此感到非常兴奋。”
编译:ChatGPT