展会信息港展会大全

我们离 AI 的巅峰还有多近?
来源:互联网   发布日期:2023-12-25 10:22:55   浏览:9361次  

导读:【编者按:Gemini Ultra的发布似乎预示着AI领域的持续竞争,但其在性能测试中略微领先却未能完全超越GPT-4,这引发了人们对于当前AI模型的极限和未来发展的疑问。著名科技博客作者Hasan Chowdhury,近期在科技博客、新闻平台Business Insider上发布了:How c...

我们离 AI 的巅峰还有多近?

【编者按:Gemini Ultra的发布似乎预示着AI领域的持续竞争,但其在性能测试中略微领先却未能完全超越GPT-4,这引发了人们对于当前AI模型的极限和未来发展的疑问。著名科技博客作者Hasan Chowdhury,近期在科技博客、新闻平台Business Insider上发布了:“How close are we topeak AI?”(我们离 AI 的巅峰还有多近?),文章指出:尽管Transformer模型作为LLM的神经网络展现了出色的记忆能力,但近期研究也指出了它们在泛化能力和推理方面的不足。这暗示了即便AI模型参数再增加,也不一定能突破当前的技术瓶颈,进一步接近人工通用智能(AGI)。

要点:

炒作情绪依然强劲,但AI已经达到巅峰了吗?

自从OpenAI在三月发布GPT-4以来,没有任何AI模型能够令人信服地击败它。

这引发了对从现在起性能上还能有多大突破的质疑。

我们距离进入ChatGPT后的世界仅仅一年,因此质疑我们是否已经达到AI的巅峰可能有些为时过早。技术的巅峰版本很少在第一年就出现,而且人工智能的主要目标人工通用智能(AGI)仍然是一个需要探索的领域。

然而,请听我说。

对于人工智能来说,这是一个巨大的一年。比尔盖茨在周二发表的博客中详细阐述了“如今AI如何清晰地被运用于改善教育、心理健康等方面”。

但随着我们步入2024年,需要问的问题似乎不太在于AI将如何被使用。相反,更多地关注于今天最流行的技术形式生成式人工智能是否已经达到巅峰。

换句话说,今天最先进的生成式人工智能模型是否有可能实现性能上的突破?

研究人员表示,理论上性能的提升是可能的。但在实践中,要实现这些提升就更加困难了。

在Gemini发布之后,许多关于这个话题的讨论被激发了起来。这个备受期待的AI模型终于在12月6日亮相,被宣称为“谷歌迄今为止最具能力的AI模型”。

它也被认为是谷歌对OpenAI的GPT-4的回应,而GPT-4是支撑ChatGPT的大型语言模型。Gemini发布时距离GPT-4发布已有九个月,人们对它能推动生成式人工智能领域的发展寄予了很高的期望。

然而,谷歌自己的数据显示,达到期望并不容易。Gemini Ultra是谷歌AI模型的一个先进版本,将在明年推出,但在性能基准上几乎只略微领先于GPT-4。

在阅读理解方面的测评中,Gemini Ultra得分为82.4,而GPT-4为80.9。实际上,GeminiUltra在衡量日常任务常识推理的基准测试中输给了GPT-4。

沃顿商学院教授Ethan Mollick在周二对X表示:“已经过去一年了,没有人能击败GPT-4。”

一系列AI模型发布了,它们与OpenAI较早版本的LLM相匹配。埃隆马斯克的Grok、开源模型Mixtral和谷歌的Gemini Pro模型似乎与GPT-3.5不相上下,尽管准确性略有降低。卡内基梅隆大学的研究人员于周一在ArXiv上提交了一篇预印本论文,证实了Gemini Pro的这一点。

但是目前还没有人能令人信服地击败GPT-4。

“他们会吗?这其中有什么魔法吗?这是否表明了LLM存在某种限制?GPT-4.5会不会是另一个巨大的飞跃?”Mollick在X上写道。

业界肯定希望看到一个巨大的飞跃。人工通用智能,基本上是指AI展示与人类同等水平的认知能力,这是OpenAI负责人Sam Altman等关键人物所公开宣称的目标。

尽管目前还没有出现一个能令人信服地击败GPT-4的模型,但有可能最终会出现一个。

Transformer模型是LLM的神经网络,当它们具有更多参数(即AI模型内的变量数量)时,它们的性能会有很好的扩展性。OpenAI并未公开其模型具有多少参数,但一些估计表明,GPT-3大约有1750亿个参数。

Mohamed bin Zayed人工智能大学的顾问Alex Voica告诉《BusinessInsider》,Transformer模型确实“与其获得的数据和计算量成正比地扩展”。

这意味着,如果你为这些模型提供更多的AI处理器(例如GPU),或者将它们的参数数量成倍增加,它们应该会表现得更好。

但这并不是十分实际的。“如果你是一家能够负担得起拥有大量数据的公司目前只有少数几家公司有这样的条件而且拥有大量的计算资源,那将是非常理想的。” Voica说道。

这不仅仅是一个实际问题。最近的研究指出,transformer可能存在其他限制,这些限制可能阻止该行业实现人工通用智能(AGI)。

谷歌的研究人员上个月发表了一篇论文,暗示transformer在泛化能力上并不是很好。如果Altman及其竞争对手希望他们基于transformer的技术能帮助他们实现AGI,这并不是一个好的迹象。

Voica表示,几家科技巨头正在研究解决方案。一个例子是世界模型(world model)。简单来说,这将是在transformer基础上的技术发展,赋予其一定的推理能力。

“Transformer模型相当于具有非常好的记忆力,但它的主要局限是一旦离开其非常出色的记忆范围,它很快就会崩溃,” Voica说道。

"然而,如果你能够在那个巨大的记忆基础上增加一些推理能力,也就是世界模型,那么你将拥有一种真正有用的东西。”

然而,看起来公司们还没有准备好让世界。

我们离 AI 的巅峰还有多近?

源于硅谷、扎根中国,上海殷泊信息科技有限公司 (MoPaaS) 是中国领先的人工智能(AI)平台和服务提供商,为用户的数字转型、智能升级和融合创新直接赋能。针对中国AI应用和工程市场的需求,基于自主的智能云平台专利技术,MoPaaS 在业界率先推出新一代开放的AI平台为加速客户AI技术创新和应用落地提供高效的算力优化和规模化AI模型开发、部署和运维 (ModelOps) 能力和服务;特别是针对企业应用场景,提供包括大模型迁移适配、提示工程以及部署推理的端到端 LLMOps方案。MoPaaS AI平台已经服务在工业制造、能源交通、互联网、医疗卫生、金融技术、教学科研、政府等行业超过300家国内外满意的客户的AI技术研发、人才培养和应用落地工程需求。MoPaaS致力打造全方位开放的AI技术和应用生态。MoPaaS 被Forrester评为中国企业级云平台市场的卓越表现者 (Strong Performer)。

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港