登录
首页 >  科技周边 >  人工智能

QLIP—英伟达视觉标记化新技术震撼发布

时间:2025-05-25 18:31:06 186浏览 收藏

QLIP(Quantized Language-Image Pretraining)是英伟达等公司推出的一项创新视觉标记化技术,通过结合高质量的图像重建和零样本图像理解能力,旨在提升多模态模型的性能。QLIP利用二进制球形量化(BSQ)的自编码器进行训练,优化重建目标和语言-图像对齐目标,能够作为视觉编码器或图像标记器无缝集成到多模态模型中,支持文本到图像生成、图像到文本生成等任务。其主要功能包括高质量图像重建、强大的语义理解和多模态任务支持,为统一多模态模型的开发提供了新的思路。

QLIP(Quantized Language-Image Pretraining)是英伟达等公司推出的一种视觉标记化技术,旨在结合高质量的图像重建和零样本图像理解能力。QLIP通过二进制球形量化(BSQ)的自编码器进行训练,同时优化重建目标和语言-图像对齐目标。QLIP能够作为视觉编码器或图像标记器,无缝集成到多模态模型中,在理解与生成任务中表现出色,为统一多模态模型的开发提供了新的思路。

QLIP— 英伟达推出的视觉标记化方法

QLIP的主要功能包括:

  • 高质量图像重建:以较低的压缩率重建高质量的图像。
  • 强大的语义理解:支持生成语义丰富的视觉标记,支持零样本图像分类和多模态理解任务。
  • 多模态任务支持:作为视觉编码器或图像标记器,无缝集成到多模态模型中,支持文本到图像生成、图像到文本生成等任务。
  • 统一的多模态模型:支持一个模型同时处理纯文本、图像到文本和文本到图像的任务。

QLIP的技术原理包括:

  • 二进制球形量化(BSQ):使用二进制球形量化技术,将图像编码为离散的视觉标记。BSQ将高维空间中的点映射到单位球面上的二进制角点,实现高效的量化和压缩。
  • 对比学习目标:QLIP引入对比学习目标,通过图像文本对齐的方式,使视觉标记与语言嵌入对齐。QLIP使用InfoNCE损失函数,学习将同一图像和文本对的嵌入拉近,将不同对的嵌入推远。对齐机制使视觉标记能够重建图像并理解图像的语义内容。
  • 两阶段训练
    • 第一阶段:优化重建损失、量化损失和对比损失的加权和,目标是学习语义丰富的视觉表示,同时保持图像的重建质量。
    • 第二阶段:在第一阶段的基础上,进一步优化重建质量,通过微调量化瓶颈和视觉解码器,恢复高频细节。这一阶段会丢弃文本编码器并冻结视觉编码器,避免在大批次训练时的性能退化。
  • 动态平衡损失:基于动态调整对比损失和重建损失的权重,解决两种目标之间的竞争问题。具体方法是根据损失值的倒数调整权重,平衡两种目标的收敛速度。
  • 加速训练与更好的初始化:从预训练的模型(如Masked Image Modeling或CLIP)初始化视觉编码器和文本编码器,显著提高训练效率,减少训练所需的样本数量。

QLIP的项目地址包括:

QLIP的应用场景包括:

  • 多模态理解:用于视觉问答(VQA)和图文推理(GQA),帮助模型理解图像生成准确回答。
  • 文本到图像生成:根据文本描述生成高质量图像,细节更符合语义。
  • 图像到文本生成:生成图像描述(caption),提供更准确的文本内容。
  • 统一多模态模型:支持一个模型同时处理文本、图像到文本和文本到图像的任务。

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>