SA和SSA

SA和SSA_第1张图片

SA和SSA_第2张图片

图片来自:深度学习卷积神经网络重要结构之通道注意力和空间注意力模块

 SA(Spatial Attention)模块首先对输入信息分别进行 Maxpool、Avgpool 操作,并按通道维度拼接池化结果,再进行1x1Conv 卷积,最后经过 Sigmoid 激活函数得到输出,最大池化与平均池化操作互为补充以保留更多特性信息,网络学习更关注重要的邻域特征。SA和SSA_第3张图片SSA模块保留 SA机制的优势并加以改进,利用 1×1Conv 降低通道维度以实现轻量化,采用跨步卷积搭配 Maxpool、Avgpool 扩大感受野并降低空间维度,叠加 3x3Conv,然后通过一个1×1Conv 恢复通道维度,以跳跃链接的方式将降维前的点云特征融合到模块下游,该结构一定程度上缓解了网络退化,并弥补降维操作丢失的信息。

你可能感兴趣的:(深度学习,深度学习,人工智能)