登录
首页 >  科技周边 >  人工智能

太全了!苹果上新视觉模型4M-21,搞定21种模态

来源:机器之心

时间:2024-06-25 16:52:00 231浏览 收藏

“纵有疾风来,人生不言弃”,这句话送给正在学习科技周边的朋友们,也希望在阅读本文《太全了!苹果上新视觉模型4M-21,搞定21种模态》后,能够真的帮助到大家。我也会在后续的文章中,陆续更新科技周边相关的技术文章,有好的建议欢迎大家在评论留言,非常感谢!

当前的多模态和多任务基础模型,如 **4M** 或 **UnifiedIO**,显示出有希望的结果。然而,它们接受不同输入和执行不同任务的开箱即用能力,受到它们接受训练的模态和任务的数量(通常很少)的限制。

,基于此,来自洛桑联邦理工学院(EPFL)和苹果的研究者联合开发了一个**先进的**任意到任意模态单一模型,该模型在数十种**广泛**多样化的模态上进行训练,并对大规模多模态数据集和文本语料库进行协同训练。

训练过程中一个关键步骤是对各种模态执行离散 **tokenization**,无论它们是类似图像的神经网络 **feature map**、向量、实例分割或人体姿态等结构化数据,还是可以表征为文本的数据。

太全了!苹果上新视觉模型4M-21,搞定21种模态

  • 论文地址:https://arxiv.org/pdf/2406.09406

  • 论文主页 https://4m.epfl.ch/

  • 论文标题:4M-21: An Any-to-Any Vision Model for Tens of Tasks and Modalities

该研究展示了训练单一模型,也能完成现有模型至少**三倍**多的任务 / **模态**,并且不会损失性能。此外,该研究还实现了更细粒度和更可控的多**模态**生成能力。

该研究建立在多模态掩码预训练方案的基础上,并通过在数十种高度多样化的模态上进行训练来提升**模型**能力。通过使用特定于模态的离散分词器对其进行编码,该研究实现了在不同模态上训练单个统一**模型**。

简单来说,该研究在几个关键维度上扩展了现有模型的功能:

  • 模态:从现有最佳任意到任意模型的 7 种模态增加到 21 种不同模态,从而实现跨模态检索、可控生成和强大的开箱即用性能。这是第一次单个视觉模型可以以任意到任意的方式解决数十个不同的任务,而不会损害性能,并且没有任何传统的多任务学习。

  • 多样性:添加对更多结构化数据的支持,例如人体姿态、SAM 实例、元数据等等。 

  • tokenization:使用特定于模态的方法研究不同模态的离散 tokenization,例如全局图像嵌入、人体姿态和语义实例。

  • 扩展:将模型大小扩展至 3B 参数,将数据集扩展至 0.5B 样本。 

  • 协同训练:同时在视觉和语言上协同训练。

方法介绍

该研究采用 4M 预训练方案(该研究同样来自 EPFL 和苹果,在去年发布),其被证明是一种通用方法,可以有效扩展到多模态。

具体而言,本文保持架构和多模态掩码训练目标不变,通过扩大模型和数据集的规模、增加训练模型所涉及的模态类型和数量,并且在多个数据集上进行联合训练,可以提升模型的性能和适应性。

模态分为以下几大类别:RGB、几何、语义、边缘、特征图、元数据和文本,如下图所示。

太全了!苹果上新视觉模型4M-21,搞定21种模态

Tokenization

Tokenization 主要包括将不同模态和任务转换为序列或离散 token,从而统一它们的表示空间。研究者使用不同的 tokenization 方法来离散具有不同特征的模态,如图 3 所示。总而言之,本文采用了三种 tokenizer,包括 ViT tokenizer、MLP tokenizer 以及文本 tokenizer。

太全了!苹果上新视觉模型4M-21,搞定21种模态

在架构选择上,本文采用基于 Transformer 的 4M 编码器 - 解码器架构,并添加额外的模态嵌入以适应新模态。

实验结果

接下来,论文展示了 4M-21 多模态能力。

多模态生成

基于迭代解码 token ,4M-21 可以用来预测任意训练模态。如图 2 所示,本文可以从给定的输入模态以一致的方式生成所有模态。太全了!苹果上新视觉模型4M-21,搞定21种模态

此外,由于该研究可以有条件和无条件地从其他模态的任何子集生成任何训练模态,因此它支持几种方法来执行细粒度和多模态生成,如图 4 所示,例如执行多模态编辑。此外,4M-21 表现出改进的文本理解能力,无论是在 T5-XXL 嵌入上还是在常规字幕上,都可以实现几何和语义上合理的生成(图 4,右上)。

太全了!苹果上新视觉模型4M-21,搞定21种模态

多模态检索

如图 5 所示,4M-21 解锁了原始 DINOv2 和 ImageBind 模型无法实现的检索功能,例如通过使用其他模态作为查询来检索 RGB 图像或其他模态。此外,4M-21 还可以组合多种模态来预测全局嵌入,从而更好地控制检索,如右图所示。

太全了!苹果上新视觉模型4M-21,搞定21种模态

开箱即用

4M-21 能够开箱即用地执行一系列常见的视觉任务,如图 6 所示。

太全了!苹果上新视觉模型4M-21,搞定21种模态

表 1 评估了 DIODE 表面法线和深度估计、COCO 语义和实例分割、3DPW  3D 人体姿态估计等。

太全了!苹果上新视觉模型4M-21,搞定21种模态

迁移实验

此外,本文还训练了三种不同尺寸的模型:B、L 和 XL。然后,将其编码器迁移到下游任务,并在单模态 (RGB) 和多模态 (RGB + 深度) 设置上进行评估。所有迁移实验均丢弃解码器,而是训练特定任务的头部。结果如表 2 所示:

太全了!苹果上新视觉模型4M-21,搞定21种模态

最后,本文在 NYUv2、Hypersim 语义分割和 ARKitScenes 上的 3D 对象检测上执行多模态传输。如表 3 所示,4M-21 充分利用了可选的深度输入,并显著改进了基线。

太全了!苹果上新视觉模型4M-21,搞定21种模态

终于介绍完啦!小伙伴们,这篇关于《太全了!苹果上新视觉模型4M-21,搞定21种模态》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布科技周边相关知识,快来关注吧!

声明:本文转载于:机器之心 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>