11月4日,据TechCrunch消息,近日,麻省理工学院展示了一种全新的机器人训练模型,该模型突破了传统方法依赖标准数据集的局限,转而模仿大型语言模型(LLM)所使用的大规模信息处理方式,为机器人学习新技能提供了全新的途径。
在传统模仿学习中,机器人通过跟随执行任务的人类或其他代理进行学习。然而,这种方法在面对如照明变化、不同环境或新障碍等小挑战时,往往因数据不足而难以适应。为了克服这一难题,麻省理工学院的研究团队借鉴了GPT-4等大型语言模型的强力数据方法,探索了一种新的解决方案。
“在语言领域,数据以句子的形式存在,”新论文的主要作者王立睿指出,“但在机器人领域,数据具有高度的异质性。如果我们想以类似语言模型的方式进行预训练,就需要构建一种全新的架构。”
为此,研究团队引入了异构预训练变压器(HPT)这一创新架构。HPT能够整合来自不同传感器和环境的多样信息,并利用变压器技术将这些数据汇总到训练模型中。值得注意的是,变压器的规模越大,其输出效果也越好。
在使用该模型时,用户只需输入机器人的设计、配置以及期望完成的任务,系统便能根据这些信息为机器人提供所需的技能。这一创新不仅提高了机器人学习的效率和灵活性,也为实现更广泛、更复杂的机器人应用奠定了坚实基础。
卡内基梅隆大学副教授戴维赫尔德在评价这项研究时表示:“我们的梦想是拥有一个通用的机器人大脑,用户可以直接下载并使用它,而无需进行任何额外训练。虽然目前我们还处于这一愿景的早期阶段,但我们将持续努力,希望借助规模化的优势,在机器人策略方面取得像大型语言模型那样的突破性进展。”(文智)