#今日论文推荐# CVPR 2022 | DAFormer:使用Transformer进行语义分割无监督域自适应的开篇之作

#今日论文推荐# CVPR 2022 | DAFormer:使用Transformer进行语义分割无监督域自适应的开篇之作

由于为语义分割标注真实图像是一个代价昂贵的过程,因此可以用更容易获得的合成数据训练模型,并在不需要标注的情况下适应真实图像。
无监督域适应(UDA)中研究了这一过程。尽管有大量的方法提出了新的适应策略,但它们大多是基于比较经典的网络架构。由于目前网络结构的影响尚未得到系统的研究,作者首先对UDA的不同网络结构进行了基准测试,并揭示了TransformerUDA语义分割方面的潜力。在此基础上提出了一种新的UDA方法DAFormer。论文题目:DAFormer: Improving Network Architectures and Training Strategies for Domain-Adaptive Semantic Segmentation
详细解读:https://www.aminer.cn/research_report/628452677cb68b460fbb089f?download=false
AMiner链接:

https://www.aminer.cn/?f=cs​

你可能感兴趣的:(深度学习,transformer,深度学习,计算机视觉)