展会信息港展会大全

前谷歌CEO施密特署名文章:在AI会走之前不要尝试去跑
来源:互联网   发布日期:2023-07-06 19:20:56   浏览:7508次  

导读:又是一个各种极端天气频出的夏季,前所未有的热浪、野火和洪水席卷了世界各国。想要准确预测此类极端情况一直是一个挑战,作为潜在的应对手段,半导体巨头英伟达正在为地球打造一个人工智能驱动的数字孪生版本。 这个数字孪生名为Earth-2,它将使用人工智能...

又是一个各种极端天气频出的夏季,前所未有的热浪、野火和洪水席卷了世界各国。想要准确预测此类极端情况一直是一个挑战,作为潜在的应对手段,半导体巨头英伟达正在为地球打造一个人工智能驱动的“数字孪生”版本。

这个数字孪生名为“Earth-2”,它将使用人工智能模型 FourCastNet 的预测,在数十 TB 的地球系统数据的帮助下,比现有预测方法更快、更准确地预测未来两周的天气。

常见的天气预报系统有能力为未来一周生成大约 50 个预报,而 FourCastNet 可以生成数千种预测,准确捕捉罕见但致命的灾难风险,从而为弱势群体提供宝贵的准备和疏散时间。

人们寄予厚望的气候建模革命只是一个开始。随着人工智能的出现,科学将变得更加令人兴奋,并且在某些方面变得前所未有的陌生。这种转变将在实验室以外的地方出现,它们将影响我们所有人。

前谷歌CEO施密特署名文章:在AI会走之前不要尝试去跑

(来源:CHRISTOPH BURGSTEDT/SCIENCE PHOTO LIBRARY)

如果我们做出对的选择,通过合理的监管和对人工智能创新应用的恰当支持来解决科学上最紧迫的问题,那么人工智能就可以改写科学进程。我们可以建立一个未来,在这个未来中,人工智能驱动的工具将让我们免于无意识和耗时的劳动,也将引导我们进行创造性的发明和发现,让那些原本需要几十年时间的突破成果更快出现。

近几个月来,大型语言模型(LLM,large language model)几乎已经成为人工智能的代名词,但在科学领域,有许多不同的模型架构可能会产生更大的影响。在过去的十年里,科学的大多数进步都来自于专注特定问题的较小的“经典”模型。这些模型已经带来了深远的进步。最近,融合了跨领域知识和生成式人工智能的、体积更大的深度学习模型扩大了可能性。

例如,来自加拿大麦克马斯特大学和美国麻省理工学院的科学家使用人工智能模型来识别一种抗生素,以对抗被世界卫生组织称为世界上最危险的耐药细菌之一(的病原体)。谷歌 DeepMind 模型可以控制核聚变反应中的等离子体,使我们离清洁能源革命更进一步。在医疗保健领域,美国食品和药物管理局已经批准 523 种使用人工智能的设备用于放射学。

重塑科学

从本质上讲,我们在小学学到的科学过程将保持不变:进行背景研究,确定假设,通过实验进行检验,分析收集的数据,并得出结论。但人工智能有可能在未来彻底改变这些步骤的具体实践。

人工智能已经改变了一些科学家进行文献综述的方式。PaperQA 和 Elicit 等工具使用了大型语言模型(LLM)扫描文章数据库,并对现有文献引文进行简洁而准确的总结。

一旦文献综述完成,科学家们就形成了一个有待检验的假设。LLM 的核心工作原理是预测句子中的下一个单词,构建完整的句子和段落。这使得 LLM 特别适用于科学领域的结构清晰的问题,并使其能够帮助科学家找到物理学或生物学的下一个重大发现。

人工智能还可以更快地扩大假设的搜索范围,再缩小潜在目标的范围。因此,人工智能工具可以帮助制定更有力的假设,例如为新药提供更有前景的候选模型。我们已经看到模拟的运行速度比几年前快了几个数量级,这使得科学家在进行真实世界的实验之前可以在模拟中尝试更多的设计选项。

例如,美国加州理工学院的科学家使用人工智能流体模拟模型自动设计了一种更好的导管,可以防止细菌向上游游动并导致感染。这种能力将从根本上改变科学发现的渐进过程,使研究人员能够从一开始就为最佳解决方案进行设计,而不是像我们曾经对灯丝的改良那样,通过一大堆逐渐改进的设计来取得进展。

进入实验阶段,人工智能将能够更快、更便宜、更大规模地进行实验。例如,我们可以用数百个日夜运行的微量移液器制造人工智能驱动的机器,以前所未有的速度产生样本。科学家可以使用人工智能工具进行一千次实验,而不再因为样本有限,不得不将自己限制在有限的实验次数中。

担心下一次资助、出版或任期过程的科学家将不再局限于成功几率最高的安全实验,他们可以自由地追求更大胆、更跨学科的假设。例如,在评估新分子时,研究人员倾向于选择与我们已经知道的分子结构相似的候选分子,但人工智能模型没有相同的偏见和约束。

最终,大部分科学过程将在“自主运行的实验室”中进行,即与人工智能相结合的自动化机器人平台。在这里,我们可以将人工智能能力从数字领域带入物理世界。这种自主运行的实验室已经在 Emerald Cloud Lab 和 Artificial 等公司出现,甚至在美国阿贡国家实验室也出现了。

最后,在分析和结论阶段,自主运行的实验室将超越自动化,根据产生的实验结果,使用 LLM 来解释结果,并推荐下一个实验。然后,作为研究过程中的合作伙伴,人工智能实验室人类助理可以订购消耗品来补满实验中消耗的,并在一夜之间设置和运行下一个推荐的实验,结果可以随时公布,甚至是当科学家睡觉的时候。

可能性和局限性

年轻的研究人员可能对这一前景感到紧张。幸运的是,这场革命创造的新工作可能比目前大多数实验室工作更有创意,也没有那么无脑。

人工智能工具可以降低新科学家的进入门槛,并为那些传统上被排除在该领域之外的人打开机会。有了 LLM 能够帮助构建代码,STEM(Science、Technology、Engineering)学生将不再需要掌握晦涩难懂的代码构建,这为新的非传统人才打开了象牙塔的大门,并使科学家更容易参与自己研究方向以外的领域。很快,经过专门培训的 LLM 可能会不仅限于提供书面工作的初稿,并可能被开发为与人类评审员一起评审新论文的“同行”。

人工智能工具有着令人难以置信的潜力,但我们必须认识到人的价值和重要性,同时也不能在学会走路之前尝试跑步。例如,通过自主运行实验室将人工智能和机器人技术成功融合并非易事。科学家们在实验室里学到了很多隐性知识,这些知识很难传授给人工智能驱动的机器人。同样,在我们将大部分文书工作、研究和分析交给 LLM 之前,我们应该意识到当前 LLM 的局限性,甚至是幻觉。

像 OpenAI 和 DeepMind 这样的公司仍然在新的突破、模型和研究论文方面处于领先地位,但目前的行业主导地位不会永远持续下去。到目前为止,DeepMind 在具有明确目标和指标的、定义明确的问题方面表现出色。它最著名的成功案例之一是在两年一度的 Critical Assessment of Structure Prediction(CASP)竞赛上,其研究团队根据蛋白质的氨基酸顺序预测蛋白质的确切形状。

从 2006 年到 2016 年,在 CASP 竞赛的 1 到 100 分制中,最难类别的平均分数在 30 到 40 分之间。突然间,在 2018 年,DeepMind 的 AlphaFold 模型获得了惊人的 58 分。两年后,一个名为 AlphaFold2 的更新版本获得了 87 分,使其人类竞争对手难以望其项背。

得益于开源资源,我们开始看到一种模式,即行业达到某些基准,然后学术界介入完善模型。在 DeepMind 发布 AlphaFold 后,美国华盛顿大学的民川百可(Minkyung Baek)和大卫贝克(David Baker)发布了 RoseTTAFold,该软件使用 DeepMind 的框架来预测蛋白质复合物的结构,而不是仅预测 AlphaFold 最初可以处理的单个蛋白质结构。更重要的是,学者们更不容易受到市场竞争压力的影响,因此他们可以超越吸引 DeepMind 的明确问题和可量化的成功。

除了达到新的高度,人工智能还可以通过解决科学的可复制性危机来帮助验证我们已经知道的事情。大约 70% 的科学家报告说,他们无法复制另一位科学家的实验,这是一个令人沮丧的数字。随着人工智能降低了实验的成本和工作量,在某些情况下,成功复制结果或得出无法复制的结论会更容易,这有助于增强人们对科学的信任。

可复制性和信任的关键在于透明度。在理想的世界里,科学领域的一切都是开放获取的,从无需付费的论文到开源数据、代码和模型。可悲的是,由于这些模型可能会带来危险,使所有模型都开源是不现实的。在许多情况下,完全透明的风险大于信任和公平的好处。尽管如此,在一定程度上,我们仍可以(而且应该)让模型更透明,尤其是使用场景更有限的经典人工智能模型。

监管的重要性

对于所有这些领域,我们必须记住人工智能的固有局限性和风险。人工智能是一种强大的工具,因为它可以让人类用更少的时间、更少的教育、更少的设备完成更多的任务。但这些能力亦会让其成为危险的武器。美国罗切斯特大学教授安德鲁怀特(Andrew White)与 OpenAI 签订了合同,参与一个“红色团队”,该团队的目的是在 GPT-4 发布前发现其风险。

在拿到该语言模型及相关工具后,怀特发现它可以给出包含危险化合物的回答,甚至可以从化学品供应商那里订购。为了测试这个过程,他曾成功地把一个(安全的)测试化合物送到了家里。OpenAI 表示,在 GPT-4 发布之前,它利用怀特的发现对其模型进行了调整。

即使人类本意不坏,也可能促使人工智能产生糟糕的结果。正如计算机科学家斯图尔特拉塞尔所说,我们应该少担心自己会创造出终结者,多担心自己是否会成为米达斯国王他希望自己触摸到的一切都能变成金子,因而意外地将自己的女儿“点石成金”。

我们目前没有一套机制能促使人工智能改变其目标,即使它以我们意想不到的方式对其目标做出反应。一个经常被提到的思维实验是这样的:你告诉了一个人工智能系统制作尽可能多的回形针。为了实现其目标,该模型劫持了电网,并杀死了任何试图阻止其劫持电网的人。随着回形针不断增多,世界陷入一片混乱。到头来,人工智能“心满意足”地表示,自己已经实现了目标。

OpenAI 已经成功实施了一系列令人印象深刻的保护措施,但只有 GPT-4 位于 OpenAI 的服务器上,这些措施才会保持不变。很快就会有人复制模型并将其存储在自己的服务器上。这些前沿模型需要得到保护,以防止居心不良的人拆除开发者精心添加的人工智能安全护栏。

为了解决对人工智能系统的有意和无意的滥用,我们需要对科技巨头和开源模型进行聪明、知情的监管,不要阻止我们以有利于科学的方式使用人工智能。尽管科技公司在人工智能安全方面取得了长足进步,但政府监管机构目前在制定适当法律方面准备不足,应该在应对和教育技术最新发展方面采取更多的行动。

除了监管之外,政府和慈善机构可以支持社会回报高、但经济回报或学术激励少的科学项目。有几个领域特别紧迫,包括气候变化、生物安全和流行病防备。正是在这些领域,我们最需要人工智能模拟和自主运行实验室带来的速度和规模。

在安全考量允许的情况下,政府还可以帮助开发大型、高质量的数据集,例如 AlphaFold 所依赖的数据集。开放数据集是公共产品:它们使许多研究人员受益,但研究人员几乎没有动力去创建它们。政府和慈善组织可以与大学和公司合作,找出科学领域的重大挑战,强大的数据库将帮助我们更好地应对这些挑战。

在化学研究领域,没有人能够正确地汇总存储在数十个数据库中的分子性质数据。如果我们只有一个数据来源的话,就无法获得人工智能模型所能获得的对该领域的见解。

与此同时,生物学缺乏物理学或化学的已知和可计算的数据,像内在无序的蛋白质这样的子领域对我们来说仍然是神秘的。因此,需要更协调一致的努力来理解甚至记录汇总数据库中的数据。

在科学领域广泛采用人工智能的道路是漫长的,我们必须做很多正确的事情,从建立正确的数据库到实施正确的法规,从减轻人工智能算法中的偏见,再到确保有需要的科学家能够平等地获取计算资源。

尽管如此,我们仍处于一个非常乐观的时刻。以前的科学范式转变,比如科学过程或大数据的出现,一直集中在内部,使科学更加精确、准确和有条理。与此同时,人工智能有着广阔的发展空间,使我们能够以新颖的方式将信息结合起来,并将科学的创造力和进步带到新的高度。

作者简介:埃里克施密特(Eric Schmidt)于 2001 年至 2011 年担任谷歌 CEO。他目前是 Schmidt Futures 的联合创始人,这是一项慈善倡议组织,专注于在早期押注于杰出人才,让世界变得更美好,通过应用科学和技术,将各个领域的人才聚集起来。

支持:Ren

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港