论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)

这篇论文不是讲场景图的,但它跟场景图很相关。查了一下这篇论文的领域应该是HOI Detection,就是人类与物体的交互检测,后面的实验做的是image retrieval的结果。

论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第1张图片
训练:
1.目标检测

2.提取主语s,宾语o,谓语p,三元组vp的视觉嵌入特征
主语和宾语的视觉特征就是目标检测器最后一层的输出
谓语的视觉特征是主宾对的空间特征
三元组的特征是主语宾语的视觉特征+它们的空间坐标特征,即前两者的融合
现在得到了上述的四种视觉特征,通过两层fc得到四种视觉嵌入特征。注意:四种嵌入函数是不同的。
视觉嵌入特征分别表示为vs,vo,vp,vvp

3.提取主语s,宾语o,谓语p,三元组vp的语言嵌入特征
主谓宾这三者的初始语言特征就是word2vec的向量,三元组的则是把主谓宾的word2vec向量cat在一起
现在得到了上述的四种语言特征,同样通过两次fc得到四种语言嵌入特征。这四种嵌入函数也是不同的。
语言嵌入特征分别表示为ws,wo,wvp,wp

4.训练类比转移修正函数Γ
给定为原三元组(s,p,o),表示为t,t’为目标三元组(s’,p’,o’)
Γ是将wvpt 转换为wvpt’ 的修正,这里注意都是针对word的
Γ的计算公式如下:
这里的主谓宾三者都是在vp空间的特征
论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第2张图片
具体的转换公式如下:
如果t和t’的主语和谓语一样,那么Γ里面的就是[0 0 wo’-wo]
论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第3张图片
5.计算每个备选三元组的权重,即wvpu
备选三元组是与目标三元组相似的三元组,例如主语都是person。
计算权重的公式如下:
t是原三元组,t’是目标三元组
论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第4张图片
目标三元组的语言特征如下式所示:
t是源三元组,u是目标三元组,Nu是相似的源三元组
在这里插入图片描述

6.损失函数
首先通过优化 Ljoint来学习投影函数的参数,然后激活类比损失LΓ。我感觉这里论文的意思应该是先通过Ljoint学习嵌入特征表示,然后再通过LΓ学Γ的参数
损失函数是让视觉嵌入特征和语言嵌入特征尽可能相似
Ljoint= Ls+ Lo+LP+Lvp
每一个分支的loss都如下式计算:
论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第5张图片
Lr:源三元组的wvpu和目标三元组视觉嵌入特征的loss
论文中没有给出具体的计算公式,我觉得应该是只有vp这个域的loss

测试:
论文阅读:Detecting Unseen Relations Using Analogies(ICCV2019)_第6张图片
给出一个query,模型自动找出与这个query相似的三元组,每一个三元组计算wvp,再计算它们的权重,最终得到wvpu,然后计算图像的视觉嵌入特征vvp,将二者求相似性分数,最相似的图像就是搜索结果了。

-------------------------------------一些碎碎念-----------------------------------------
马上就要过年了。
我给自己定了个四篇论文的计划(年前)。
我在想桃子。

你可能感兴趣的:(机器学习,机器学习,深度学习,计算机视觉,cv,场景理解)