YOLOV8改进:在c2f模块中的不同位置加入NAMAAttention注意力机制

NAMAAttention注意力机制简介:

注意力机制是近年来研究的热点之一(Wang et al。[2017],Hu等人[2018],Park等人[2018]、Woo等人[2018]和Gao等人[199])。它有助于深度神经网络抑制不太显著的像素或通道。许多先前的研究都侧重于通过注意操作捕捉显著特征(Zhang等人[2020],Misra等人[2021年])。这些方法成功地利用了来自不同维度特征的相互信息。然而,它们缺乏对权重的贡献因素的考虑,这能够进一步抑制不重要的通道或像素。受Liu等人的启发。【2017】,我们旨在利用权重的贡献因素来改善注意力机制。我们使用批量归一化的比例因子,该比例因子使用标准偏差来表示权重的重要性。这可以避免添加SE、BAM和CBAM中使用的完全连接层和卷积层。

因此,我们提出了一种有效的注意力机制——基于归一化的注意力模块(NAM)

YOLOV8改进:在c2f模块中的不同位置加入NAMAAttention注意力机制_第1张图片

 许多先前的工作试图通过抑制不重要的权重来提高神经网络的性能。挤压和激励网络(SENet)(Hu等人[2018])将空间信息集成到通道特征响应中,并使用两个多层感知器(MLP)层计算相应的注意力。后来,瓶颈注意模块(BAM)(Park等人[2018])并行构建了分离的空间和通道子模块,它们可以嵌入每个瓶颈块中。卷积块注意力模块(CBAM)(Woo等人[2018])提供了一种按顺序嵌入通道和空间注意力子模块的解决方案。为了避免忽略交叉维度的交互作用,三重注意模块&

你可能感兴趣的:(python,开发语言,YOLO,人工智能,神经网络)