从DETR到Mask2Former(3):masked attention的attention map可视化
Mask2Former的论文中有这样一张图,表示maskedattenion比crossattention效果要好那么这个attentionmap是怎么画出来的?在mask2attention的源代码中CrossAttentionLayer这个类中,在forward_post函数中做如下修改:defforward_post(self,tgt,memory,memory_mask:Optional[