2023年显著性检测论文及代码汇总(2)

ACM MM

Recurrent Multi-scale Transformer for High-Resolution Salient Object Detection

code
Abstacrt:现有的HRSOD方法没有足够大规模的数据集用于训练和评估,且会产生不完整的目标区域和不规则的目标边界。本文提出了一个新的HRS10K数据集,包含10500个2K-8K分辨率的高质量标注图像。同时,本文提出一个新的循环多尺度Transformer,即RMFormer,可以循环利用共享的Transformer 和多尺度细化结构。
2023年显著性检测论文及代码汇总(2)_第1张图片

~Parting Line~

CVPR

Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings

code
Abstacrt:由于本文分析得出的草稿的一个特性,即显著性(因为素描是一个专注的过程),本文研究如何将草稿用作弱标签以检测图像中的显著物体。因此,本文提出一种方法,强调如何手绘草稿来解释显著物体。为实现这一目标,本文引入照片-草稿模型,旨在通过二维注意力机制生成给定的视觉照片对应的顺序草稿坐标。在此过程中积累的注意力图产生了显著区域。
2023年显著性检测论文及代码汇总(2)_第2张图片

~Parting Line~

IEEE TIP

HiDAnet: RGB-D Salient Object Detection via Hierarchical Depth Awareness

code
Abstacrt:目前的RGB-D SOD研究工作通常采用注意力模块进行特征建模,很少有方法显式地利用细粒度细节与语义线索进行融合,因此现阶段的模型难以区分外观相似但深度有差异的物体。本文提出层次深度感知网络HiDAnet。为实现多模态与多层级的融合,首先使用基于粒度的注意力机制增强RGB与深度特征的区分能力。然后,引入统一的交叉双注意力模块用于多模态多层级,由粗到细的融合。编码后的多模态特征聚合到一个共享的解码器中。最后,利用多尺度损失充分利用层次信息。
2023年显著性检测论文及代码汇总(2)_第3张图片

~Parting Line~

TCSVT

HRTransNet: HRFormer-Driven Two-Modality Salient Object Detection

code

Abstacrt:目前,双模显著性检测 two-modality SOD有两个关键问题。其一是双模态融合,其二是高分辨率Transformer,即HRFormer的输出融合。本文提出一个模型,即HRTransNet。为解决第一个问题,利用全局优化和注意力机制在输入层对模态进行选择和净化,引入辅助流,在主模态中注入辅助模态。为解决第二个问题,利用双向短连接融合模块对HRFormer的输出特征进行优化,从而增强输出层对象的细节表示。

2023年显著性检测论文及代码汇总(2)_第4张图片

~Parting Line~

TOMM

PAV-SOD: A New Task Towards Panoramic Audiovisual Saliency Detection

code
Abstacrt:为建模真实全方位动态场景中的对象级试视听注意,本文提出全景视听显著性目标检测PAV-SOD,旨在利用音频和视觉线索分割360°全景视频中的显著性目标。本团队建立了第一个具有分层注释的PAV-SOD数据集,构建新的benchmark,提出了第一个使用音频和视觉线索进行检测及不确定估计的PAV-SOD的基准模型。

2023年显著性检测论文及代码汇总(2)_第5张图片

以下代码待公布

CVPR

Boosting Low-Data Instance Segmentation by Unsupervised Pre-training with Saliency Prompt

code
Abstacrt:本文为低规模数据提供了一种无监督预训练解决方案,通过为queries/kernels提供显著性提示来增强QEIS模型,该方法共包括三个部分:1)Saliency Masks Proposal负责从未标记的图像生成基于显著性机制的伪掩码;2)Prompt-Kernel Matching将伪掩码传输到提示中,向最佳匹配的kernels注入相应的定位和形状预设;3)Kernel Supervision用于在kernel层提供监督,实现鲁棒性学习。
2023年显著性检测论文及代码汇总(2)_第6张图片

持续更新ing

你可能感兴趣的:(目标检测,计算机视觉,机器学习)