Attention图像上应用个人理解

注意力机制最好不要直接在原有的主干网络(backbone)中添加,以免破坏原有的预训练参数,最好是backbone之后添加。
添加时,注意注意输入的channels的数量。

你可能感兴趣的:(Attention图像上应用个人理解)