理解语言模型的视觉知识

【阿里云】云服务器经济型e实例/2核2G/3M/40g,新人专享渠道特惠价只要99元!特惠热卖中。
理解语言模型的视觉知识

理解语言模型的视觉知识

你可能听说过一张图片胜过千言万语,但如果大型语言模型 (LLM) 从未见过图像,它能理解图片吗?

事实证明,纯文本训练的语言模型对视觉世界有着扎实的理解。他们可以编写图像渲染代码来生成具有有趣对象和构图的复杂场景——即使这些知识没有得到正确使用,LLM 也可以改进他们的图像。麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的研究人员在提示语言模型针对不同图像自我校正代码时观察到了这一点,系统通过每次查询改进了简单的剪贴画绘图。

这些语言模型的视觉知识是从互联网上描述形状和颜色等概念的方式中获得的,无论是用语言还是代码。当给出“在丛林中画一只鹦鹉”这样的指示时,用户会让 LLM 思考之前在描述中读到的内容。为了评估 LLM 拥有多少视觉知识,CSAIL 团队为 LLM 构建了一个“视力检查”:使用他们的“视觉能力数据集”,他们测试了模型绘制、识别和自我纠正这些概念的能力。研究人员收集了这些插图的每一份最终草稿,训练了一个计算机视觉系统来识别真实照片的内容。

“我们本质上是在不直接使用任何视觉数据的情况下训练视觉系统,”这项研究的共同主要作者、麻省理工学院电气工程与计算机科学 (EECS) CSAIL 博士后 Tamar Rott Shaham 说道。“我们的团队查询语言模型来编写图像渲染代码来为我们生成数据,然后训练视觉系统来评估自然图像。我们受到了视觉概念如何通过其他媒介(如文本)来表示的问题的启发。为了表达他们的视觉知识,LLM 可以使用代码作为文本和视觉之间的共同点。”

为了构建这个数据集,研究人员首先查询模型以生成不同形状、对象和场景的代码。然后,他们编译该代码来渲染简单的数字插图,例如一排自行车,这表明 LLM 能够很好地理解空间关系,可以将两轮车画成水平行。再举一个例子,该模型生成了一个汽车形状的蛋糕,结合了两个随机概念。语言模型还产生了一个发光的灯泡,表明它具有创造视觉效果的能力。

“我们的工作表明,当你查询 LLM(没有经过多模态预训练)来创建图像时,它知道的东西比看起来的多得多,”共同主要作者、EECS 博士生兼 CSAIL 成员 Pratyusha Sharma 说道。“假设你要求它画一把椅子。该模型知道这件家具的其他信息,这些信息它可能不会立即渲染,因此用户可以查询该模型以改进它在每次迭代中产生的视觉效果。令人惊讶的是,该模型可以通过在很大程度上改进渲染代码来迭代丰富绘图。”

研究人员收集了这些插图,然后用它们来训练计算机视觉系统,该系统可以识别真实照片中的物体(尽管从未见过)。有了这种合成的文本生成数据作为唯一参考点,该系统的表现优于其他使用真实照片训练的程序生成的图像数据集。CSAIL

团队认为,将 LLM 的隐藏视觉知识与其他 AI 工具(如扩散模型)的艺术能力相结合也可能大有裨益。像 Midjourney 这样的系统有时缺乏持续调整图像中更精细细节的专业知识,这使得它们很难处理诸如减少图片中的汽车数量或将一个物体放在另一个物体后面之类的请求。如果 LLM 事先勾勒出扩散模型所要求的更改,那么最终的编辑可能会更令人满意。

具有讽刺意味的是,正如 Rott Shaham 和 Sharma 所承认的,LLM 有时无法识别他们能够绘制的相同概念。当模型错误地识别数据集中人类对图像的再现时,这一点就变得很明显。视觉世界的如此多样化的表征很可能引发了语言模型的误解。

虽然模型很难理解这些抽象的描述,但它们展示了创造力,每次都以不同的方式绘制相同的概念。当研究人员多次要求 LLM 绘制草莓和拱廊等概念时,他们从不同角度绘制了不同形状和颜色的图片,这暗示模型可能对视觉概念有实际的心理意象(而不是背诵他们之前看到的例子)。

CSAIL 团队认为,这一程序可以作为评估生成式 AI 模型训练计算机视觉系统效果的基准。此外,研究人员还希望扩大他们挑战语言模型的任务。至于他们最近的研究,麻省理工学院的研究小组指出,他们无法访问他们使用的 LLM 的训练集,这使得进一步研究他们的视觉知识的来源变得具有挑战性。未来,他们打算通过让 LLM 直接与视觉模型一起工作来探索训练更好的视觉模型。

© 版权声明

相关文章

暂无评论

暂无评论...