展会信息港展会大全

复制一个OpenAI,for Science | AI周
来源:互联网   发布日期:2023-08-20 13:51:43   浏览:12440次  

导读:谷歌前CEO埃里克施密特(Eric Schmidt)对此很感兴趣。他正在筹备一家新的AI非营利组织(nonprofit initiative),已经聘请了至少两名科学家:他们相对年轻,已是各自领域的专家,发表了大量高质量论文,而且都强烈相信人工智能即将颠覆科学。 弗朗西斯克里...

谷歌前CEO埃里克施密特(Eric Schmidt)对此很感兴趣。他正在筹备一家新的AI非营利组织(nonprofit initiative),已经聘请了至少两名科学家:他们相对年轻,已是各自领域的专家,发表了大量高质量论文,而且都强烈相信人工智能即将颠覆科学。

弗朗西斯·克里克研究所(Francis Crick Institute)的应用生物技术实验室的创始人塞缪尔·罗德里格斯(Samuel Rodriques),借助于人工智能研究过敏、抑郁症和阿尔茨海默病等。罗切斯特大学教授安德鲁·怀特(Andrew White)今年刚发了一篇论文,指出大模型可能会改变化学的未来。

施密特的新机构,以OpenAI最初的模样为蓝图,不以赚钱为目的。资金主要来自施密特的个人财富,未来也可能引入志同道合的外部资金,保证向顶尖的科学家与人工智能学者支付足够的薪酬,以及在学术界难以获得的算力资源。

施密特一直热衷于用AI重塑科学研究的未来。他在担任谷歌CEO期间,收购了DeepMind,称之为“现代最伟大的英国的成功故事之一”。除了用AI预测蛋白质结构,DeepMind还在尝试训练AI学习精准控制托卡马克内包含等离子体的磁场,这是迈向商用核聚变技术的关键一步。

上个月,他撰文描绘了科学已经重塑的未来,由人工智能驱动的工具,不仅既可以解放人类免于无意义且耗时的劳动,也可以引导人类进行创造性的发明和发现,加快实现那些本来需要几十年才能取得的突破。

他的文章发表在《MIT技术评论》杂志上,题为《人工智能将如何革命科学研究》。差不多同时,《自然》杂志也刊登了题为《人工智能时代的科学发现》的论文。对于人工智能驱动科学发现的前景,充满期待。

人工智能正在改变文献综述的方式。像 PaperQA 和 Elicit 这样的工具,可以利用大模型扫描文章数据库,并生成简洁准确的摘要,甚至给出关键引用。然后,科学家提出一个新的需要验证的假设。大模型特别适合处理这种有着固有的科学层次结构的问题。它还能扩大与缩小筛选的范围。在实验阶段,人工智能与大模型可以与自动化机器人实验平台合作。其实它已经到来,出现在Emerald Cloud Lab等公司以及阿贡国家实验室等地方。在分析阶段,人工智能会总结这一次的实验结果,分析并给出下一次实验所需要验证的目标与流程。

随着资本涌入大模型,各类应用层出不穷,但目前遇到了诸多安全与伦理问题,正在跨越鸿沟。相比之下,AI for science反倒是最没有争议的应用场景之一。

它甚至不会带来下岗危机。科学家仍是这个场景的主导者,但随着大模型能够辅助构建代码,STEM学生将不再需要掌握晦涩的编程语言,这将使那些真正有志于基础研究的科学家,更容易涉足自己想去往的领域。

它最大的争议就是费钱,而且不直接来钱。这也是为什么非营利的OpenAI,最终走向了利润上限(capped-profit)模式;而现代英国最成功的DeepMind最终被吞入美国科技巨头。

最近几十年来,科技行业一直被硅谷所主导,后来“科技”这一标签,又为“互联网”所取代。互联网赚钱的最重要的方式之一就是广告,以至于主流媒体和大多数风险投资家有点忘记了,创新的出发点之一就是提升创新能力。

如果AI for Science是科学研究的第五次范式革命的话,它还需要研究模式的革命。算力都集中在科技巨头和AI新贵手中,而大学里有大量的科学家亟待用AI来帮助加快常年未突破的研究项目。如何设计一种新的模式,把算力和脑力的资源融合到一起。

施密特设想这样一套创新体系:由人工智能平台支撑早期探索,比如AlphaFold模型对单个蛋白质结构的预测;达到基准,足以有科学信服力之后,由科学家来改进模型,比如华盛顿大学发布的RoseTTAFold,能够预测蛋白质复合物的结构。它们最终形成有价值的知识产权。政府可以帮助开发大型、高质量的数据集,并对高社会回报但低财务回报的紧迫的项目予以扶持。

本周,还有这些发生在AI领域的事件值得关注:

一、风险、监管与伦理

英国AI安全峰会考虑邀请中国。该峰会定于11月初,在白金汉郡的布莱切利园举办,二战期间图灵等英国密码破译者,就在这个基地工作。谷歌DeepMind、微软、OpenAI和Anthropic等公司的高管和顶尖学者在受邀之列。英国没有忽视中国,但仍在考虑以何种形式与议题邀请。峰会将广泛讨论人工智能的安全性,而不仅仅是生成人工智能,也包括包括如何在战争和网络安全中使用AI等议题。

美联社公布生成式AI使用标准。该机构提出,员工可以谨慎使用ChatGPT进行实验,但不可使用ChatGPT来创建用于发表的内容,生成式AI工具的任何输出都应被视为未经审查的材料,使用生成式AI来更改照片、视频或音频等也被限制使用等7项规定。

中国提议负面清单与专设机构监管人工智能。中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组发布《人工智能法示范法1.0(专家建议稿)》,建议采用负面清单管理制度,负面清单内的研发、提供活动采取许可机制,实行事前监管,负面清单外的研发、提供活动则采取备案机制,事后监管机制,并设立研发者相应豁免条款;提出国家人工智能办公室作为主管机构,以单独的主管机关模式,避免互联网平台时代的九龙治水困境。

炒作AI的假新闻登上了伦交所官网。AI时代的虚假新闻问题已经缠上了AI自身。一份宣传Ripplewood将向OpenAI投资10亿美元的新闻稿出现在伦敦证券交易所网站上,随后被伦交所发现并删除。Ripplewood已聘请律师调查虚假公告出现的原因。OpenAI未回应。目前多方正在调查谁要为此事负责,或许还要接受金融监管处罚。

二、中美科技巨头

谷歌大模型Gemini将在秋季发布。谷歌目前有数百人组成的团队,正在训练该大模型,计划超越其他所有同类产品,并让后者无法望其项背。它很可能是首个能够同时处理视频、文本和图像的多模态模型。外界估计谷歌在训练中用到了YouTube视频、谷歌图书、庞大的搜索索引以及 Google Scholar上的学术资料。

Meta将推编程模型Code Llama。它将对标OpenAI旗下的Codex模型,并较Meta的开源大语言模型Llama 2显著增强。最快将于下周开源发布。

微软将在Azure销售Databricks软件。这可以帮助企业从头开始打造人工智能模型,或重新利用开源模型。继与Meta的Llama 2合作后,微软在寻找OpenAI替代方案的路上越走越远。

腾讯专有基础大模型下半年末升级。在财报电话会议上,腾讯高管透露已开始在公司内部不同场景中测试专有基础模型,包括腾讯云、金融、科技、游戏部门,并开始调整模型性能,下半年会有升级。目前,腾讯云MaaS上架了包括Llama 2在内的20多个主流模型。此外,腾讯云还发布了面向广告平台、UGC平台、SaaS企业的文案创作AI工具。

小米打造手机上的大模型。目前小米AI团队超过3000人,以“轻量化、本地部署”为思路,让大模型上手机。雷军表示,目前一款13亿参数的模型已经在手机端跑通,且在某些场景下,可以媲美 60 亿模型在云端的运算结果。

三、大模型和行业应用

医疗巨头Epic用大模型梳理临床文档。它的合作方是成立于2020年的Abridge,后者的产品与服务将集成到Epic的临床工作流程中,使医疗服务提供者能够生成实时、结构化的患者谈话摘要,并具有完全的可审计性。

普华永道试用内部生成式AI工具ChatPwC。它可作为员工的对话式人工智能助手。该工具采用了OpenAI的技术,并根据相关数据进行了微调。目前,约有1000名员工可以使用该工具,公司计划在今年夏天重点扩大使用范围。

火山引擎采用视觉大模型修复经典影片。老片中常见的清晰度低、流畅度低、色彩失真、有瑕疵等画质问题,在抖音的海量投稿里也广泛存在。通过服务抖音,火山引擎已经形成了一套较为完整的智能处理技术方案。这是其首次将AIGC视觉大模型应用于老片修复中。

达摩院发布癌症分析通用模型。针对市面上医疗AI模型出现的高假阳性、漏检等问题,达摩院医疗AI团队联合多家医院单位,提出了统一的多癌影像分析通用模型,适用于八种主流的高发高致死癌症以及相关器官中的肿瘤子类型。

四、资金流向

OpenAI收购Global Illumination。后者业务主要集中在面向视觉的产品和服务上,最新的一款产品是 Biomes,类似可以在浏览器上运行的 Minecraft。外界推测这是一场针对人才和团队的收购,或许还有可能是看到了将AI代理部署到3D世界的潜在市常

韩国电信巨头1亿美元投资Anthropic。两家公司计划共同开发面向全球电信的多语言大语言模型,并构建AI平台。尚不清楚具体交易细节。不久前,该巨头已与德国、阿联酋与新加坡的电信巨头达成联盟,共同研发电信领域的人工智能业务。

Elemental Cognition获近6000万美元融资。该公司致力于开发“先思考后说话”的AI产品,它提供两种企业产品Cogent和Cora,本质上是针对不同场景设计的聊天机器人,可用于金融服务、交互式旅行规划以及生命科学领域的自动化研究发现。

Transformer论文作者成立Sakana AI。该公司总部位于东京,专注于开发基于自然启发智能的新型基础模型,这将是一个有别于Transformer架构,且能在非西方社会文化中表现良好的大模型。该公司的首席技术官Llion Jones,是提出Transformer深度学习架构论文的作者之一;首席执行官David Ha此前曾担任Stability AI研究主管和谷歌大脑研究员。

中科加禾完成数千万元种子轮融资。该公司聚焦芯片编译与优化技术,包括大模型推理优化工具、CUDA兼容编译器和中长尾芯片定制编译器。为解决国产芯片的生态碎片化问题,该公司的技术能让用户把英伟达上的应用程序无缝移植到国产芯片。

五、基础设施

英伟达全年全球有望出货55万个H100芯片。它们主要将销往美国科技公司。中国科技巨头则向英伟达采购了10万块A800芯片,约10亿美元,今年交付;另有约40亿美元的芯片将在明年交付。A800是A100的功能缩水版本,A100是H00的上一代版本。此外,媒体透露台积电7nm制程的A800目前产能不足,部分交货将延期。

三星将为Groq生产AI芯片。Groq主要针对云计算市场开发AI芯片,主要成员曾参与研发谷歌TPU。三星晶圆代工部门将为其生产4nm制程的AI加速器芯片。该生产基地位于美国得克萨斯州泰勒县,预计于今年底前竣工,主要生产5nm以下先进制程。

耐能推出KL730芯片,支持轻量级GPT。该芯片以实现AI功能为目的,集成了车规级神经处理单元(NPU)和图像信号处理器(ISP),可无缝接入图像、视频、音频和毫米波等数字信号,使得用户能够部分或完全离线地在终端运行轻量级的GPT模型。

联想推出AI大模型训练服务器。服务器采用的是英伟达的H800芯片。联想集团还宣布,今后让100%算力基础设施产品支持AI,50%基础设施研发投入在AI领域。

六、开源生态

多模态预训练语料“书生万卷”开源发布。上海人工智能实验室联合中央广播电视总台、人民网、国家气象中心、中国科学技术信息研究所、上海报业集团、上海文广集团等大模型语料数据联盟成员,共同开源发布“书生万卷”1.0多模态预训练语料,目前包含文本数据集、图文数据集、视频数据集三部分,本次开源的数据总量超过2TB。

微软开源大模型WizardMath发布。在参数只有700亿,远不及后三者的情况下,WizardMath数学能力击败了ChatGPT、Claude Instant 1、PaLM 2-540B等一众大模型。目前,其相关代码、复现方式及论文都已开源或上线。论文共9位作者,均为华人。

清华系团队开源多模态生物医药大模型。清华大学智能产业研究院(AIR)及其孵化的大模型初创公司水木分子,开源了多模态生物医药百亿参数大模型BioMedGPT-10B。该模型可用于提升包括新药立项评估、药物设计和优化、临床试验设计、适应症拓展等多个药物研发环节的效率。该团队一同上线了BioMedGPT-LM-7B,号称是“首个可商用、生物医药专用的Llama2大模型”。

七、论文

残差网络论文4作者获奖。ResNet 的四位作者何恺明、孙剑、任少卿、张祥雨因提出深度残差学习,为人工智能做出了基础性贡献,获得“数学与计算机科学奖”。关于 ResNet(残差网络)的论文解决了深度网络的梯度传递问题。这篇论文是 2019 年、2020 年和 2021 年 Google Scholar Metrics 中所有研究领域被引用次数最多的论文,并建立了现代深度学习模型的基本组成部分(例如在 Transformers、AlphaGo Zero、AlphaFold 中)。其中的孙剑博士2015年带领何恺明等人开发了深度残差网络(ResNet),是世界上首个上百层的深度神经网络,开创了深度学习领域的一个里程碑。2022 年 6 月 14 日,孙剑博士因突发疾病去世。

复制一个OpenAI,for Science | AI周

文本引导人类试衣,栩栩如生。TeCH 通过利用 1) 描述性文本提示(例如服装、颜色、发型)来重建 3D 人体,这些描述性文本提示是通过服装解析模型和视觉问答 (VQA) 自动生成的,2) 个性化的微调文本到图像扩散模型(T2I),它可以学习“难以描述”的外观。TeCH 生产出高保真 3D 人体服装,具有一致细腻的纹理和详细的全身几何形状。

Transformer 的局限性。将多步组合推理简化为线性子图匹配,让Transformer来解决组合任务,它不一定会形成系统性的问题解决能力。关于抽象多步推理问题的理论论证也表明,随着任务复杂性的增加,Transformer 的性能将迅速下降。通俗地说,在需要真正的多步组合操作的某些智力任务中,如乘法和逻辑谜题,Transformer 可能存在根本性的弱点。但这只是一项初步研究。

复制一个OpenAI,for Science | AI周

何时出现“涌现”。大语言模型中,为什么某些能力在训练数据超过规模阈值时会突然”涌现“,这篇论文提出了令一些专家感到满意的解释。论文提出了神经缩放定律的量化模型,解释了模型和数据规模的观察到的损失幂律下降以及随着规模的突然出现的新能力。这个模型是从所谓的量化假设中推导出来的,其中学习的网络能力被量化为离散的块(量子)。当”量子“按照使用频率递减的顺序学习时,使用频率的幂律可以解释观察到的损失的幂律缩放。

复制一个OpenAI,for Science | AI周

八、其他

北京要攻关多模态大模型的机器人创新。北京市经济和信息化局印发《北京市促进机器人产业创新发展的若干措施》,提出要提升机器人关键技术创新能力,除了硬件方面的高性能专用芯片和伺服电机、减速器、控制器、传感器等关键零部件,还强调了人工智能、多模态大模型等相关技术。对于产业关键技术攻关清单内的投入,予以最高3000万元的支持。

上海市印发数据要素发展行动方案。上海市政府办公厅正式印发《立足数字经济新赛道推动数据要素产业创新发展行动方案(2023-2025年)》,总体目标是到2025年,数据要素市场体系基本建成,国家级数据交易所地位基本确立;数据产业规模达5000亿元,形成1000个高质量数据集;到2025年,算力总规模较“十三五”期末翻两番。

赞助本站

相关热词: 复制 一个 OpenAI for Science

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港