展会信息港展会大全

李彦宏称AI将掀起创造力革命 人人都会是开发者
来源:互联网   发布日期:2024-04-18 08:58:19   浏览:3827次  

导读:本报记者 李静 深圳报道 不用一行代码,只用人类的自然语言,能开发出一款游乐园排队助手应用吗? 随着大模式和生成式AI的发展,这个答案是肯定的。在今年百度举办的一场创业大赛中,一支参赛队伍利用百度AI原生应用开发工具AppBuilder,用自然语言、三步就...

本报记者 李静 深圳报道

不用一行代码,只用人类的自然语言,能开发出一款游乐园排队助手应用吗?

随着大模式和生成式AI的发展,这个答案是肯定的。在今年百度举办的一场创业大赛中,一支参赛队伍利用百度AI原生应用开发工具AppBuilder,用自然语言、三步就开发出了AI原生应用,并拿到了10万元的大奖。

据介绍,以这款游乐场排队助手为例,打开AppBuilder的开发界面,第一步先给应用起名“游乐场排队助手”,第二步填写角色指令,包括调用代码解释器、算出在固定时间内的最佳组合、输出结果等;第三步再插入需要的工具组件。这样,在零代码的情况下,一个应用就生成了。

“得益于强大的基础大模型,有了很多低门槛,甚至零门槛的开发工具,开发者的生产力大大提高了。”百度创始人、董事长兼首席执行官李彦宏在Create 2024百度AI开发者大会上带来了包括AgentBuilder、AppBuilder和ModelBuilder三大开发工具,涵盖了智能体开发工具、AI原生应用开发工具和各种尺寸的模型定制工具。

李彦宏说:“AI正在掀起一场创造力革命,未来开发应用就像拍个短视频一样简单,人人都是开发者、创造者。”

未来大型的AI原生应用是MoE架构

大模型本身并不直接创造价值,基于大模型开发出来的AI应用才能满足真实的市场需求。

李彦宏分享了基于大模型开发AI原生应用的具体思路和工具,以及对大模型未来发展的思考。

第一,他认为未来大型的AI原生应用基本都是MoE架构,即大小模型的混用,不依赖一个模型解决所有问题。

第二,小模型推理成本低,响应速度快,在一些特定场景中,经过SFT精调后的小模型,它的使用效果可以媲美大模型。李彦宏表示:“这就是我们发布ERNIE Speed、ERNIE Lite、ERNIE Tiny三个轻量模型的原因。我们通过大模型,压缩蒸馏出来一个基础模型,然后再用数据去训练,这比从头开始训练小模型的效果要好很多,比基于开源模型训练出来的模型效果更好,速度更快,成本更低。”

第三,智能体可能是未来离每个人最近、最主流的大模型使用方式,基于强大的基础模型,智能体可以批量生成,应用在各种各样的场景。随着智能体能力的提升,会不断催生出大量的AI原生应用。智能体机制包括理解、规划、反思和进化,它让机器像人一样思考和行动,可以自主完成复杂任务,在环境中持续学习、实现自我迭代和自我进化。在一些复杂的系统中,还可以让不同的智能体互动,相互协作,更高质量地完成任务。

“这是我们根据过去一年的实践,踩了无数的坑,交了高昂的学费换来的。”李彦宏强调道。

在这次大会之前,李彦宏还发出内部信解释百度文心大模型为什么不对外开源。在本次大会上,李彦宏再度表示,未来开源模型会越来越落后。

“开发者通过文心4.0降维裁剪出来的更小尺寸模型,比直接拿开源模型调出来的模型,在同等尺寸下的效果明显更好;同等效果下,成本明显更低。”李彦宏说道,“大家以前用开源觉得开源便宜,其实在大模型场景下,开源是最贵的。所以开源模型会越来越落后。”

底层技术之变

百度文心一言自去年3月16日发布,到今天已有一年零一个月的时间。据介绍,文心一言用户数已经突破了2亿,API日均调用量也突破了2亿,客户数达到了8.5万,利用千帆平台开发的AI原生应用数超过了19万。

“近几个月来,文心大模型在代码生成、代码解释、代码优化等通用能力方面实现了进一步的显著提升,达到国际领先水平。”李彦宏表示,“相比一年前,文心大模型的算法训练效率提升到了原来的5.1倍,周均训练有效率达到98.8%,推理性能提升了105倍,推理的成本降到了原来的1%。也就是说,客户原来一天调用1万次,同样成本现在一天可以调用100万次。”

当编程不再是少数经过专业训练的程序员的特权,不再是面向过程、面向对象,而是面向需求后,这种革命性变化将彻底颠覆原有的操作系统。百度集团执行副总裁、百度智能云事业群总裁沈抖说道:“新的操作系统的内核中,底层的硬件从以CPU算力为主变成以GPU算力为主,而且第一次增加了硬件和软件以外的资源,也就是被大模型压缩的世界知识。操作系统管理的对象也因此发生了本质的变化,从管理进程、管理微服务,变成了管理智能。这个全新的操作系统需要能管理万卡规模的集群,需要极致发挥GPU、CPU的性能,需要高速互联,还需要有强大的大模型作为核心引擎,不仅是语言大模型,还有视觉大模型。”

尤其值得关注的是,大模型高速发展的时代,强大的模型能力需要巨大的算力甚至电力,算力的有效管理至关重要。国内还面临一个特殊情况,就是芯片供应的不确定性。“这必然会导致多款芯片并存的格局,短期看,这是大家被动接受的局面,长期看,这一定是大家主动选择的结果。”沈抖说道,我国算力的发展需要摆脱对单一芯片的依赖,实现更优的成本,保证更有弹性的供应链。

然而,不同厂商的芯片差异很大,即使都来自同一厂商,不同代际的芯片差距也很大。要想在大模型训练、特别是单一训练任务上管理好多个厂商、不同代际的芯片,是非常困难的事情。

沈抖介绍道,全新发布的新一代智能计算操作系统万源已经解决了这些难题,实现了单一训练任务下不同厂商芯片的混合训练,且百卡规模性能损失不超过3%,千卡规模性能损失不超过5%。最大程度上屏蔽硬件之间的差异,帮助用户摆脱单一芯片的依赖,实现更优成本,打造更具弹性的供应链体系。

“未来,我们会进一步开放操作系统层面的生态合作。向上,开放更多的能力和接口,开发者可以非常简单地开发应用。向左,大家可以用万源做基础,打造适合自己的垂直行业的操作系统。向右,可以把万源直接部署在自己的智算中心,享受稳定、安全、高效的智能计算平台。向下,我们会适配更多的芯片,为开发者进一步隐去异构集群的复杂性,让不同的芯片都能发挥最大的效能。”沈抖说道。

(编辑:张靖超 审核:李正豪 校对:张国刚)

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港