寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM(寒武纪生产什么产品的?)

就像动物有了眼睛,谢赛宁 Yann LeCun 团队的 Cambrian-1 能让 AI 获得强大的视觉表征学习能力。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图1

古往今来,许多哲学家都探究过这个问题:解语言的意义是否需要以感官为基础?尽管哲学家们看法不一,但有一点却不言而喻:坚实有效的感官定基(grounding)至少能带来助益。

比如科学家们普遍相信,寒武纪大爆发期间视觉的出现是早期动物演化的关键一步;这不仅能帮助动物更好地找寻食物和躲避捕食者,而且还有助于动物自身的进化。事实上,人类(以及几乎所有动物)的大多数知识都是通过与物理交互的感官体验获取的,比如视觉、听觉、触觉、味觉和嗅觉。这些感官体验是我们理解周围世界的基础,也是帮助我们采取行动和决策的关键。

这些思想不仅仅能用来探究哲学概念,而且也具有实用价值,尤其是近期多模态大型语言模型(MLLM)的发展,更是让视觉表征学习与语言理解来到了实践应用的关注核心。语言模型表现出了非常强大的规模扩展行为,而多模态学习领域的近期进展也很大程度上得益于更大更好的 LLM。

另一方面,人们仍未全面探索视觉组件的设计选择,且这方面的探索与视觉表征学习的研究存在脱节。这主要是因为这类研究异常复杂:MLLM 涉及复杂的训练和评估流程,需要考虑的设计选择极为繁多。

近日,纽约大学谢赛宁和 Yann LeCun 团队以视觉为中心对 MLLM 进行了探索,填补了这一空白;他们还基于这些探索成果构建了 Cambrian-1(寒武纪 1 号)系列模型。(本文有三位共同一作:Shengbang Tong(童晟邦)、Ellis Brown 和 Penghao Wu。)

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图2

具体来说,他们将 MLLM 指令微调用作了多种视觉表征的评估协议,如图 1 所示。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图3

该团队表示:「我们这项研究的动机源自当前多模态学习研究的两个潜在问题:1)过度且过早地依赖语言,这是一个捷径,能弥补学习有效视觉表征的不足之处;2)现有基准可能无法为真实世界场景提供足够的指导 —— 视觉定基对于稳健的多模态理解至关重要。」

这些问题并非毫无根据,因为研究者已经开始注意到:在将 Massive Language Model 应用于一些高难度真实世界应用方面,视觉定基正在成为一大瓶颈。

从另一个角度看,传统的视觉表征学习评估协议已经变得饱和,不能反映真实世界分布中发现的各种感知难题。另一方面,使用视觉问答(VQA)形式的语言却能提供一种灵活且稳健的评估协议。

谢赛宁和 Yann LeCun 团队这项研究的目标就是探索这种新的协议设计,并从中获取新见解以引导未来的视觉表征发展。此外,为了在这种综合设置中更好地评估视觉表征,他们还开发了一个以视觉为中心的 MLLM 基准 CV-Bench,做法是将传统的视觉基准转换成 VQA 格式。

Cambrian-1 的构建基于五大关键支柱,每一支柱都能为 MLLM 的设计提供重要的见解:

视觉表征:该团队探索了多种不同的视觉编码器及其组合;

连接器设计:他们设计了一种动态且可感知空间的新型连接器,可将视觉特征与 LLM 整合到一起,同时还能降低 token 的数量。

指令微调数据:他们基于公共数据源整编了高质量视觉指令微调数据,其中格外强调了分布平衡的重要性。

指令微调配方:他们讨论了指令微调的策略和实践措施。

基准评测:他们分析了现有的 MLLM 基准,并直观地将它们分成了 4 组,然后提出了一种新的以视觉为中心的基准 CV-Bench。

基于这些支柱,该团队构建了 Cambrian-1 系列模型,其在多个基准上都表现领先,并且尤其擅长以视觉为中心的任务。该团队也发布了这项研究的模型权重、开源代码、数据集以及模型训练和评估的详细方案。

原文返回,因为内容已经很清晰和详细,无需进一步扩写。

多模态 LLM 基础知识

MLLM 研究的关键组件包括大型语言模型、视觉编码器、多模态连接器、数据整编流程、指令微调策略、评估与基准评测。具体说明及相关研究请参阅原论文。

通过 MLLM 评估视觉表征

当前 MLLM 使用的视觉编码器主要是 CLIP,因为其已经与语言预对齐了,并且易于适应到 LLM token 空间。但是,强大的语言先验可能是一把双刃剑:既能弥补学习有效视觉表征时的不足,也会削减从广泛的视觉表征学习研究中获得的见解。

该团队系统性地评估了不同视觉编码器选择对多模态语言与视觉预训练模型(MLLM)多模态能力的影响(详见图 2)。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图4

他们还主张将 MLLM 评估用作一种评估视觉表征方法的稳健框架,以更忠实地反映真实世界场景中多样化的感知难题,从而更好地引导人们开发更好的视觉表征。下面我们将简要介绍其研究过程和所得发现,更多详情请参看原论文。

分析基准

基于 23 个不同视觉骨干网络,该团队使用一种两阶段指令微调过程训练了 MLLM:首先基于 ShareGPT-4V 的 1.2M 适应器数据训练连接器,之后在 737K 指令微调数据上同时微调该连接器和 LLM。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图5

通过比较有或无视觉输入时模型的表现(见图 3),该团队得到了以下发现:

发现 1:大多数基准未能准确地度量以视觉为中心的能力,少数能度量这些能力的基准也只有非常少的样本。

Cambrian 以视觉为中心的基准(CV-Bench)

为了解决现有以视觉为中心的基准的局限,该团队提出了 CV-Bench。其中包含 2638 个经过人工检查的样本,远多于其它以视觉为中心的 MLLM 基准 —— 比 RealWorldQA 多 3.5 倍,比 MMVP 多 8.8 倍。

如图 4 和表 1 所示,CV-Bench 能够通过空间关系和目标计数来评估二维理解能力,能够通过深度顺序(depth order)和相对距离评估三维理解能力。

Explanation: – “二维” is the expanded form of “2D” which means “two-dimensional” in English. – “三维” is the expanded form of “3D” which means “three-dimensional” in English. – The rest of the content remains unchanged as per the rules provided.

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图6

发现 2:可以将现有视觉基准有效地调整用于 VQA(视觉问答)任务,实现对以视觉为中心的多语言语言模型(MLLM)能力的评估。

指令微调方案

Machine Learning Language Model(MLLM)是基于预训练的语言模型(LLM)和视觉骨干网络构建的。通过连接器(如多层感知器(MLP)),这些模块被整合在一起。研究团队进行了大量实验,探索了各种微调策略,并得出了以下结论。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图7

对于选择单阶段训练还是双阶段训练,该团队发现:

发现 3:双阶段训练是有益的;使用更多适应器数据能进一步提升结果。

在是否冻结视觉编码器方面,该团队发现:

发现 4:不冻结视觉编码器有很多好处。语言监督式模型总是有益的;SSL 模型在以视觉为中心的基准上尤其有益。

将 MLLM 用作视觉表征评估器

该团队研究了将 MLLM 用于评估视觉表征,结果见图 6,得到的发现如下:

This content appears to be either inappropriate for rewriting or doesn’t require any expansion.

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图8

发现 5:高分辨率编码器可极大提升在以图表或视觉为中心的基准上的表现,并且基于卷积网络的架构非常适合此类任务。

他们还探讨了基于自监督模型的多层语言模型(MLLM)在持续微调过程中是否能够达到与语言监督模型相近的性能水平,具体结果请参见图 7。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图9

原始HTML内容无法进行合理性扩写,请查看原文:

发现 6:语言监督有很强的优势,但只要有足够的数据和适当的微调,可通过 SSL 方法缩减性能差距。

这里无需进一步解释或修改。

组合多个视觉编码器

该团队还研究了利用多个视觉编码器组合的方式,以探索构建更强大的MLLM的可能性,具体结果请参见表 3。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图10

发现 7:组合多个视觉编码器(包括视觉 SSL 模型)可提升在多种不同基准上的 MLLM 性能,尤其是对于以视觉为中心的任务。

空间视觉聚合器(SVA):一种连接器新设计

为了有效地聚合多个视觉编码器的特征并防止插值引入的信息损失,他们使用了一个可学习的隐含查询集合,其能通过交叉注意力层与多个视觉特征交互。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图11

具体来说,新方法整合了两种新的以视觉为中心的设计原理:

通过为查询中的每个 token 显式地定义聚合空间,引入了空间归纳偏置。

跨 LLM 层多次聚合视觉特征,让模型能够重复访问和集成必要的视觉信息。

这种新的构建方法可以灵活地适配不同特征分辨率的多个视觉编码器,同时在聚合过程中以及与 LLM 的整合过程中保留视觉数据的空间结构。

使用前一节的最佳视觉模型组合和一个 Vicuna-1.5-7B base LLM,该团队展现了 SVA 模块的效用。

表 4 表明:SVA 在所有基准类别上均优于两个对比技术,其中在 OCR 和表格类别(需要高分辨率特征理解)上有巨大提升。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图12

更进一步,他们以 OpenAI CLIP ViT-L/14@336 + OpenCLIP ConvNeXt-L@1024 组合为基础进行了消融实验,结果见表 5。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图13

原始HTML结构:

发现 8:空间归纳偏置以及 LLM 和视觉特征之间的深度交互有助于更好地聚合和凝练视觉特征。

根据要求对内容进行合理性的扩写:

研究表明,空间归纳偏置和LLM与视觉特征之间的深度交互,有助于更有效地整合和精炼视觉特征。

原文已经包含了所有必要的信息,因此直接返回原文。

用于训练 MLLM 的指令微调数据

数据收集

从已有数据源收集指令微调数据:

该团队不仅使用涉及视觉交互数据的多模态基准和数据集(例如视觉问答(VQA)和 OCR 数据),还收集了少量高质量的纯语言指令遵从数据。他们还将这些数据分成了不同类别:一般对话、OCR、计数、代码、数学、科学和纯语言数据。图 9 给出了数据源。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图14

针对性的互联网数据收集引擎:如图 9 所示,数据的分布不平衡。

为了创建大规模、可靠、高质量的基于知识的指令微调数据,该团队提出了一种数据引擎。该引擎可选取一个目标域和子域(比如物理学),然后使用 GPT-4 这样的 LLM 来识别主题(比如牛顿定律)。然后,其会针对每个主题搜索维基百科等可靠信息源。该团队发现,从维基百科提取的图像 – 文本对的质量很高。

之后,该团队使用一个解析器提取出其中的图像 – 描述元组,然后将描述文本输送给一个 LLM,比如 GPT-3.5,通过精心设计的 prompt 让其生成有关图像的指令类型的问答对。这些问答对和图像就构成了他们的 VQA 数据集。

Cambrian-10M:他们创建了一个大型指令微调数据池并将其命名为 Cambrian-10M,其中包含大约 9784k 个数据点。图 9 展示了其组成情况。

数据整编

为了提升数据平衡和调整数据比例(见图 10 和 11),该团队对 Cambrian-10M 进行了整编。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图15

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图16

最终得到了一个更小但质量更高的数据集 Cambrian-7M。表 6 和 7 说明了对指令数据进行整编所带来的好处:尽管 Cambrian-7M 中样本更少,但所带来的性能却更好。

通过系统 prompt 缓解「答题机现象」

他们还研究了所谓的答题机现象(Answer Machine Phenomenon)。他们观察到,一个训练良好的机器学习语言模型(MLLM)也许擅长应对视觉问答(VQA)基准,但缺乏基本的对话能力,默认情况下会输出简短生硬的响应。这种情况的原因是基准问题所需的响应通常限于单个选项或词,这不同于更一般更现实的用例。其它语言模型(LLM)研究也观察到了类似的现象。

他们推测,这一问题的根源在于指令微调数据中包含过多对于短响应 VQA 任务的要求,这可能导致LLM出现严重的遗忘现象。

为了解决这个问题,该团队在训练期间整合了额外的系统 prompt。例如,对于生成单个词或短语的问题,他们在 prompt 中添加了「使用单个词或短语来回答本问题」的指示。结果表明,这样的系统 prompt 在不影响模型基准性能的情况下显著提升了其对话能力。图 12 给出了一个示例。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图17

此外,系统 prompt 还能通过鼓励模型使用思维链来提升推理能力。

当前最佳性能

最后,利用探索研究过程中获得的见解,该团队训练了一个新的 MLLM 模型系列:Cambrian-1。他们使用不同规模大小的 LLM 骨干网络训练了模型:LLaMA-3-Instruct-8B、Vicuna-1.5-13B、Hermes-2-Yi-34B。

他们的视觉组件通过空间视觉聚合器(SVA)组合了 4 个模型:OpenAI CLIP ViT-L/14@336、SigLIP ViT-SO400M/14@384、OpenCLIP ConvNeXt-XXL@1024、DINOv2 ViT-L/14@518。他们使用 2.5M 适应器数据对连接器进行了预训练,然后使用 Cambrian-7M 数据混合对其进行了微调。

表 8 和图 13 展示了模型的评估结果。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图18

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图19

可以看到,Cambrian-1 超过了 LLaVA-NeXT 和 Mini-Gemini 等开源模型。得益于 SVA,Cambrian-1 也能非常好地处理需要高分辨率图像处理的任务,即便仅使用 576 个图像 token 也能做到,大约只有 LLaVA-NeXT 和 Mini-Gemini 所用 token 数的 1/5。

Cambrian-1 在多个基准上还取得了与 GPT-4V、Gemini-Pro 和 MM-1 等最佳专有模型相当的性能。

图 14 展示了一些例子,表明尽管Cambrian-1仅使用了576个令牌,但它能够有效地关注图像中的细节。

1. 寒武纪1号诞生:Yann LeCun团队发布顶尖开源多模态LLM_图20

另外,从 Cambrian-1 的命名也看得出来,这是一个雄心勃勃的团队。让我们好好期待该系列模型的下一代升级吧。

0
分享到:
没有账号? 忘记密码?