NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第1张图片

 ©PaperWeekly 原创 · 作者 杨浩

研究方向 | 自然语言处理

#01.

VL-T5

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第2张图片

论文标题:

Unifying Vision-and-Language Tasks via Text Generation

收录会议:

ICML 2021

论文链接:

https://arxiv.org/abs/2102.02779

代码链接:

https://github.com/j-min/VL-T5

1.1 Motivation

提出了一个统一的框架、统一的训练目标,能够兼容 7 个多模态任务的学习。统一的训练方式是 multimodal conditional text generation,即输入视觉图片+文本,生成文本 label,不同的任务之间的知识可以共享。

1.2 Method

7 个多模态任务的 benchmark,包括 VQA, GQA, COCO Caption, NLVR2, VCR, MMT, REF-COCOg。所有任务的输入加上文本前缀(e.g.”vqa:”, “image text match:”)用于区分不同任务,输出都统一成 text label 的形式。对于 visual grounding 任务,图片特征输入时就加了类似 的 region id,所以输出时可以用 text label “” 来指示预测的图片区域。

1.3 Contribution

提出任务统一框架,使用了 encoder-decoder 的 Transformer 结构。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第3张图片

#02.

CLIP

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第4张图片

论文标题:

Learning Transferable Visual Models From Natural Language Supervision

收录会议:

ICML 2021

论文链接:

https://arxiv.org/abs/2103.00020

代码链接:

https://github.com/OpenAI/CLIP

2.1 Motivation

NLP 领域BERT/GPT 等可以利用大量的语料的数据进行自监督训练从而进行 pretrain,然而 CV 领域是用标注信息的分类数据集进行 pretrain (ImageNet),是否能利用网上大规模的图片信息进行预训练,使用 natural language 作为 image representation 的监督信号,从而提升下游任务的效果。

2.2 Method

1. 利用从互联网爬取的 400 million 个 image-text pair 进行图文匹配任务的训练,并将其成功迁移应用于 30 个现存的计算机视觉——OCR、动作识别、细粒度分类等。

2. 使用对比学习的方法,做图文匹配的任务,计算相似度。给定 batch=N 的 image-text pairs,CLIP 预测 NxN 的概率(利用线性变换得到 multi-modal embedding space 的向量,点乘计算得到相似度),对角线即为正样本,其它都是负样本。

2.3 Contribution

无需利用 ImageNet 的数据进行训练,就可以达到 ResNet-50 在该数据集上有监督训练的结果。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第5张图片

#03.

Frozen

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第6张图片

论文标题:

Multimodal Few-Shot Learning with Frozen Language Models

收录会议:

NeurIPS 2021

论文链接:

https://arxiv.org/abs/2106.13884

3.1 Motivation

借鉴 NLP 中 prompt 工作,Frozen 可以看成是一种 image conditional 下的 prompt learning,即将连续的 prompt 特征学习变成是来自于图片的特征(由另一个网络训练产生)。探究了固定语言模型参数下如何学习多模态任务。

3.2 Method

Vision Encoder 编码得到图片特征,再映射为 n 个 prompt 向量加到文本表示之前。Language Model 使用了一个 7 billion 参数规模的预训练好的模型;Vision Encoder 使用了 NF-ResNet-50。

3.3 Contribution

通过将 prompt 扩展到有序的图像,将大型语言模型转换为多模态语言模型的方法同时保留语言模型的文本提示能力,在 VQA、OKVQA、miniImageNet 等多个数据集验证了迁移学习的效果。由于 Visiual Encoder 和文本的处理比较简单,模型效果离 SOTA 有一定的距离。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第7张图片

#04.

CoOp

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第8张图片

论文标题:

Learning to Prompt for Vision-Language Models

收录会议:

NeurIPS 2021

论文链接:

https://arxiv.org/abs/2109.01134

代码链接:

https://github.com/KaiyangZhou/CoOp

4.1 Motivation

CLIP 中使用的手工 prompt 有两个缺点:1)需要额外的知识和人力来为每个下游任务/数据集设计合适的 prompt,当数据集或者下游任务很多时非常耗时耗力;2)手工 prompt 不太稳定,对某个单词可能很敏感。把 NLP 中离散 token->连续 token 思路引入进来。

4.2 Method

在 class 前面加入一组 prompt 连续向量,续可学的 prompt 具体又可分为 unified context 和 class-specific context (CSC) 两种。实验发现 class-specific context (CSC) 这种类型的 prompt 对细粒度图片分类任务更有用,而在一般的数据集上,unified context 效果更好。

4.3 Contribution

在图片分类任务上的 few-shot learning 设置上,连续 prompts 比 CLIP 中手工定制的 prompt 效果有很大提升。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第9张图片

#05.

MAnTiS

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第10张图片

论文标题:

Multimodal Conditionality for Natural Language Generation

论文链接:

https://arxiv.org/abs/2109.01229

5.1 Motivation

将 prompt 方法应用到文案生成。

5.2 Method

image 和 text(即商品 title),分别用 ResNet-152 和 embedding 映射到语言模型的同一个空间中为为 prompt,同时作为条件的文本输入和生成序列一同进行编码,最后再经过 Transformer Decoder 得到输出的描述。

5.3 Contribution

文案生成效果中融入视觉效果,使得生成效果更佳。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第11张图片

#06.

CPT

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第12张图片

论文标题:

CPT: Colorful Prompt Tuning for Pre-trained Vision-Language Models

论文链接:

https://arxiv.org/abs/2109.11797

6.1 Motivation

将 prompt 方法应用到 visual grounding 任务上,将任务转化为完形填空问题。

6.2 Method

对图片中的 object 一些被涂上不同颜色的图片,然后把文本当作问题,最后回答什么颜色的图片是问题的答案并填空。

6.3 Contribution

该方法在 visual grounding 任务上 zero/few shot 场景下取得了非常好的表现。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第13张图片

#07.

CLIP-Adapter

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第14张图片

论文标题:

CLIP-Adapter: Better Vision-Language Models with Feature Adapters

论文链接:

https://arxiv.org/abs/2110.04544

代码链接:

https://github.com/gaopengcuhk/clip-adapter

7.1 Motivation

soft prompt 优化的 CoOp,由于 CLIP 的过度参数化和缺乏足够的训练样本,简单的网络调整会导致对特定数据集的过拟合。从而本文只需对轻量级附加特征适配器进行微调,受参数有效迁移学习中适配器模块的启发,作者提出了 CLIP-Adapter,它只调整少量额外权重,而不是优化 CLIP 的所有参数。

7.2 Method

1. CLIP Adapter 仅在视觉或语言主干的最后一层之后添加了两个额外的线性层;相反,原始适配器模块插入到语言主干的所有层中;

2. CLIP Adapter 通过残差连接将原始 Zero-Shot 视觉或语言嵌入与相应的网络调整特征混合。通过这种“残差样式混合”,CLIP Adapter 可以同时利用原始 CLIP 中存储的知识和来自 Few-Shot 训练样本的新学习的知识。

7.3 Contribution

在 11 个数据集上 few-shot 的实验结果,CLIP-Adapter 明显优于 CoOp 和 CLIP。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第15张图片

#08.

DenseCLIP

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第16张图片

论文标题:

DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting

论文链接:

https://arxiv.org/abs/2112.01518

收录会议:

CVPR 2022

代码链接:

https://github.com/raoyongming/denseclip

8.1 Motivation

1. CoOp 中可学的 prompt 是 task-level 或者 class-level 的,不能随着每个输入数据样例的变化而变化,本文设计了 instance-level 的 prompt,即把视觉(图片)特征注入到 prompt 向量中去,所以每个数据对应的 prompt 都是不一样的,引入了数据侧的信息。

2. 从图像-文本对中学习到的知识转移到更复杂的密集预测任务的问题几乎没有被研究(目标检测、语义分割和动作识别等)。在这项工作中,作者通过隐式和显式地利用 CLIP 的预训练的知识,提出了一个新的密集预测框架。

8.2 Method

pre-model prompting:在文本编码器之前将视觉特征和可学习 soft tokens 传递给 Transformer 解码器生成。

prompt post-model prompting:在文本编码器之后将视觉特征和类别向量传递给 Transformer 解码器生成类别向量表示。

8.3 Contribution

提出一个更通用的框架,可以利用从大规模预训练中学到的自然语言先验来改善密集预测。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第17张图片

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第18张图片

#09.

PromptFuse

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第19张图片

论文标题:

Prompting as Multimodal Fusing

论文链接:

https://openreview.net/pdf?id=wWZCNLkK-FK

9.1 Motivation

对 Frozen 的改进,Frozen 中的 image encoder 同时完成了两个目标:提取视觉特征、对齐图文空间的表示。本文对这两个目标解耦,image encoder 只负责编码图像特征,而对齐图文空间表示的任务交给 prompt 向量来做。这样视觉编码器的参数也变成固定的了,只有 prompt 向量的参数是可训练的。

这样做有两个好处:1)整个架构更加模块化,可以灵活调整视觉编码器,也可以灵活地加入其他模态;2)实现了更高的参数效率,视觉编码器中的大量参数都可以冻结,只需要调整 prompt 向量即可。本文还提出了一种特殊的 attention mask,它迫使 prompt 对所有输入数据都是不可见的,称为 BlindPrompt。

9.2 Method

固定视觉编码器和文本编码器,只更新 prompt 向量。

9.3 Contribution

相比 Fintune 上对于 few-shot 和 full-shot 上有些效果上的提升。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第20张图片

#10.

UniVL

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第21张图片

论文标题:

Unified Multimodal Pre-training and Prompt-based Tuning for Vision-Language Understanding and Generation

论文链接:

https://arxiv.org/abs/2112.05587

10.1 Motivation

提出理解与生成统一的多模态预训练,使用 mixing causal mask,下游任务使用 prompt 进行 fintune。

10.2 Method

预训练使用图文对比学习+MLM+图文匹配 loss。

10.3 Contribution

在图文检索 full-shot/zero-shot 相比 UNITER、CLIP 等有所提升,在 Image captioning 和 VQA 上效果也有提升,但是没有达到 SOTA 水平。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第22张图片

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第23张图片

#11.

VL-Adapter

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第24张图片

论文标题:

VL-Adapter: Parameter-Efficient Transfer Learning for Vision-and-Language Tasks

论文链接:

https://arxiv.org/abs/2112.06825

11.1 Motivation

在大型文本语料库上预训练的语言模型的微调在视觉和语言(V&L)任务以及纯语言任务上提供了巨大的改进。然而,由于模型规模迅速增长,对预训练模型的整个参数集进行微调变得不切实际。

11.2 Method

将三种流行的基于适配器的方法(Adapter, Hyperformer, Compacter)与标准的完全微调和最近提出的提示微调方法进行比较,应用到多模态任务。

11.3 Contribution

用权重共享技术训练适配器(占总参数的 4.4%)可以与微调整个模型的性能相匹配。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第25张图片

#12.

OFA

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第26张图片

论文标题:

Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework

论文链接:

https://arxiv.org/abs/2202.03052

代码链接:

https://github.com/OFA-Sys/OFA

12.1 Motivation

模态、任务、结构统一的模型 OFA,将多模态及单模态的理解和生成任务统一到 1 个简单的 Seq2Seq 生成式框架中,OFA 执行预训练并使用任务 instruction/prompt 进行微调,并且没有引入额外的任务特定层进行微调。

12.2 Method

统一模态:统一图片、视频、文本的多模态输入形式;统一结构:采取统一采用 Seq2Seq 生成式框架;统一任务:对不同任务人工设计了 8 种任务指令。

12.3 Contribution

OFA 覆盖的下游任务横跨多模态生成、多模态理解、图片分类、自然语言理解、文本生成等多个场景,在图文描述、图像生成、视觉问答、图文推理、物体定位等多个风格各异的任务上取得 SOTA。

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第27张图片

更多阅读

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第28张图片

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第29张图片

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第30张图片

5f5d10884037e83c4e89de0b12e7da32.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

NLP领域最近比较火的Prompt,能否借鉴到多模态领域?一文跟进最新进展_第31张图片

△长按添加PaperWeekly小编

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

e09c830c513fb07d4875686816c48a88.png

你可能感兴趣的:(算法,python,计算机视觉,神经网络,机器学习)