登录
首页 >  科技周边 >  人工智能

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

时间:2025-01-17 17:01:37 196浏览 收藏

从现在开始,我们要努力学习啦!今天我给大家带来《数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆》,感兴趣的朋友请继续看下去吧!下文中的内容我们主要会涉及到等等知识点,如果在阅读本文过程中有遇到不清楚的地方,欢迎留言呀!我们一起讨论,一起学习!

AI领域对“扩展定律是否触及瓶颈”的讨论甚嚣尘上。 有人认为,高质量数据即将耗尽是扩展定律触及瓶颈的证据之一,研究预测,按LLM当前发展速度,可用高质量数据或将在2028年左右被完全消耗。

图片 图源:Will we run out of data? Limits of LLM scaling based on human-generated data

然而,卡内基梅隆大学(CMU)和Google DeepMind的一项研究——“VLM智能体生成自身记忆:将经验提炼为具身思维程序”——提出了一种可能的解决方案。该研究发现,利用低质量数据和反馈,或许可以弥补高质量数据不足的问题。 研究中提出的ICAL方法,允许LLM和VLM基于次优演示和人工反馈创建有效的提示词,从而改进决策,并减少对专家演示的依赖。该论文已被NeurIPS 2024评为Spotlight论文,项目代码已公开发布。

图片

人类拥有卓越的小样本学习能力,能够将观察到的行为与内部世界模型结合,快速从单一任务演示中泛化到相关场景。 人类能区分成功与失败的关键因素,并预测潜在风险。 通过反复练习和反馈,人类能快速找到正确的抽象概念,从而模仿并调整任务以适应各种情况,实现知识在不同任务和环境中的迁移和改进。

近期研究探索了利用大型语言模型(LLM)和视觉-语言模型(VLM)从轨迹和经验中提取高级见解。这些见解通过模型的内省产生,并通过添加到提示词中来提升模型性能,利用了其强大的上下文学习能力。

现有方法通常侧重于基于文本的任务奖励信号、存储失败后的纠正、使用领域专家人工编写或挑选示例(无需内省),或利用语言来塑造策略和奖励。 这些方法大多基于文本,缺乏视觉提示或演示,或仅在失败时使用内省,这并非人类和机器整合经验和提取见解的唯一方式。

CMU和DeepMind的研究团队则提出了一种新方法:给定次优演示和人类自然语言反馈,通过学习上下文经验抽象,让VLM学习解决新任务。 该方法被称为In-Context Abstraction Learning (ICAL),即上下文抽象学习。

ICAL如何学习?

ICAL通过提示,引导VLM为陌生领域创建多模态抽象。 与以往仅存储和检索成功动作规划或轨迹的方法不同,ICAL强调学习抽象,这种抽象包含了关于任务动态和关键知识的信息(如图1所示)。

图片

ICAL处理四种认知抽象:

  • 任务和因果关系
  • 对象状态变化
  • 时间抽象
  • 任务建构

在最优或次优演示下,ICAL通过提示VLM将演示转换为优化轨迹,同时创建相关的语言和视觉抽象。然后,在人类自然语言反馈的引导下,通过在环境中执行这些轨迹来优化这些抽象。 抽象生成过程的每一步都利用之前推导出的抽象,从而提升模型的执行和抽象能力。

图2展示了ICAL的概览。

图片

ICAL包含两个阶段:

  1. 抽象阶段(F_abstract):VLM利用语言评论纠正错误,丰富序列。
  2. 有人类参与的阶段(F_hitl):序列在环境中执行,抽象过程由人类自然语言反馈指导。

成功执行的轨迹将被存档,作为智能体的上下文参考,用于处理新任务和新环境。 学习到的抽象总结了动作序列、状态迁移、规则和关注区域的关键信息,并通过自由形式的自然语言和视觉表征表达。

学习到的ICAL样本可用于检索增强式生成,应用于新任务和新环境。

图片

实验结果表明ICAL有效

研究人员在TEACh、VisualWebArena和Ego4D基准测试中评估了ICAL的任务规划和动作预测能力。结果显示,ICAL在家庭环境指令遵循任务中优于固定演示;在视觉网络任务中取得了最先进的性能;在Ego4D设置中,其性能优于使用思维链的少样本GPT4V,并且与完全监督方法差距很小,但使用的领域内训练数据减少了639倍。 此外,随着示例数量增加,ICAL性能也显著提升,表明其具有良好的扩展性。

图片图片图片图片图片

文中关于工程的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆》文章吧,也可关注golang学习网公众号了解相关技术文章。

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>