改进YOLO系列:10.添加NAMAttention注意力机制

添加NAMAttention注意力机制

  • 1. NAMAttention注意力机制论文
  • 2. NAMAttention注意力机制原理
  • 3. NAMAttention注意力机制的配置
    • 3.1common.py配置
    • 3.2yolo.py配置
    • 3.3yaml文件配置

1. NAMAttention注意力机制论文

论文题目:NAM: Normalization-based Attention Module
论文链接:NAM: Normalization-based Attention Module

2. NAMAttention注意力机制原理

改进YOLO系列:10.添加NAMAttention注意力机制_第1张图片

3. NAMAttention注意力机制的配置

&#x

你可能感兴趣的:(改进YOLO系列,YOLO)