QLIP – 英伟达推出的视觉标记化方法

2025-05-09 0 454

QLIP是什么

QLIP(Quantized Language-Image Pretraining)是英伟达等推出的视觉标记化方法,结合高质量的图像重建和零样本图像理解能力。QLIP二进制球形量化(BSQ)的自编码器进行训练,同时优化重建目标和语言-图像对齐目标。QLIP能作为视觉编码器或图像标记器,无缝集成到多模态模型中,在理解与生成任务中表现出色。QLIP为统一多模态模型的开发提供新的思路。

QLIP的主要功能

  • 高质量图像重建:用较低的压缩率重建高质量的图像。
  • 强大的语义理解:支持生成语义丰富的视觉标记,支持零样本图像分类和多模态理解任务。
  • 多模态任务支持:作为视觉编码器或图像标记器,无缝集成到多模态模型中,支持文本到图像生成、图像到文本生成等任务。
  • 统一的多模态模型:支持一个模型同时处理纯文本、图像到文本和文本到图像的任务。

QLIP的技术原理

  • 二进制球形量化(BSQ):用二进制球形量化(BSQ)技术,将图像编码为离散的视觉标记。BSQ将高维空间中的点映射到单位球面上的二进制角点,实现高效的量化和压缩。
  • 对比学习目标:QLIP引入对比学习目标,基于图像文本对齐的方式,让视觉标记与语言嵌入对齐。QLIP用InfoNCE损失函数,学习将同一图像和文本对的嵌入拉近,将不同对的嵌入推远。对齐机制使视觉标记能重建图像,理解图像的语义内容。
  • 两阶段训练
    • 第一阶段:优化重建损失、量化损失和对比损失的加权和。目标是学习语义丰富的视觉表示,保持图像的重建质量。
    • 第二阶段:在第一阶段的基础上,进一步优化重建质量,基于微调量化瓶颈和视觉解码器,恢复高频细节。这一阶段会丢弃文本编码器并冻结视觉编码器,避免在大批次训练时的性能退化。
  • 动态平衡损失:基于动态调整对比损失和重建损失的权重,解决两种目标之间的竞争问题。具体方法是根据损失值的倒数调整权重,平衡两种目标的收敛速度。
  • 加速训练与更好的初始化:从预训练的模型(如Masked Image Modeling或CLIP)初始化视觉编码器和文本编码器,显著提高训练效率,减少训练所需的样本数量。

QLIP的项目地址

QLIP的应用场景

  • 多模态理解:用在视觉问答(VQA)和图文推理(GQA),帮助模型理解图像生成准确回答。
  • 文本到图像生成:根据文本描述生成高质量图像,细节更符合语义。
  • 图像到文本生成:生成图像描述(caption),提供更准确的文本内容。
  • 统一多模态模型:支持一个模型同时处理文本、图像到文本和文本到图像的任务。

若非本站原创的文章,特别作如下声明:
本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。
不承担任何由于内容的合法性及真实性所引起的争议和法律责任。
凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。
如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!

AI老司机 AI行业动态 QLIP – 英伟达推出的视觉标记化方法 https://www.ailsj.cn/1633.html

相关文章

发表评论
暂无评论