8.19论文阅读

文章目录

  • Graph-Segmenter: Graph Transformer with Boundary-aware Attention for Semantic Segmentation
    • 方法
  • SCSC: Spatial Cross-scale Convolution Module to Strengthen both CNNs and Transformers
    • 方法
  • Deformable Mixer Transformer with Gating for Multi-Task Learning of Dense Prediction
    • 方法

Graph-Segmenter: Graph Transformer with Boundary-aware Attention for Semantic Segmentation

方法

8.19论文阅读_第1张图片
8.19论文阅读_第2张图片
基于图的transformer,
8.19论文阅读_第3张图片
有一定的参考价值

SCSC: Spatial Cross-scale Convolution Module to Strengthen both CNNs and Transformers

方法

8.19论文阅读_第4张图片
就是层级思想
8.19论文阅读_第5张图片

Deformable Mixer Transformer with Gating for Multi-Task Learning of Dense Prediction

方法

代码地址
8.19论文阅读_第6张图片
8.19论文阅读_第7张图片
8.19论文阅读_第8张图片
8.19论文阅读_第9张图片
他的这个是混合注意力

你可能感兴趣的:(医学影像综述,论文阅读)