魔改YOLO系列算法,助力涨点,助力科研。通过添加注意力机制SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM
等;网络轻量化方法通过更换主干特征提取网络为MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分离卷积/PP-LCNet/mobileone/Ghostnetv2
等;优化原yolo算法损失函数为EIoU/SIoU/Alpha-IoU等,助力检测涨点;优化非极大值抑制算法为Soft-nms/DIoU NMS
等;构建“Transformer+CNN”结构拟补原卷积网络缺乏长距离建模能力,融入Bottleneck/EfficientFormer/Swin Transformer/Swin Transformer v2.0
等,助力涨点;改进特征融合方式为BIFPN/ASFF
等,强化不同尺度融合能力;优化锚框生成,改为K-Means++
;添加小目标检测层等方法。
☁️1. 添加SE注意力机制
☁️2.添加CBAM注意力机制
☁️3. 添加CoordAtt注意力机制
☁️4. 添加ECA通道注意力机制
☁️5. 改进特征融合网络PANET为BIFPN
☁️6. 增加小目标检测层
☁️7. 损失函数改进
☁️8. 非极大值抑制NMS算法改进Soft-nms
☁️9. 锚框K-Means算法改进K-Means++
☁️10. 损失函数改进为SIOU
☁️11. 主干网络C3替换为轻量化网络MobileNetV3
☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
☁️14. 主干网络C3替换为轻量化网络Ghostnet
☁️15. 网络轻量化方法深度可分离卷积
☁️16. 主干网络C3替换为轻量化网络PP-LCNet
☁️17. CNN+Transformer——融合Bottleneck Transformers
☁️18. 损失函数改进为Alpha-IoU损失函数
☁️19. 非极大值抑制NMS算法改进DIoU NMS
☁️20. Involution新神经网络算子引入网络
☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
☁️22. 涨点神器——引入递归门控卷积(gnConv)
☁️23. 引入SimAM无参数注意力
☁️24. 引入量子启发的新型视觉主干模型WaveMLP(可尝试发SCI)
☁️25. 引入Swin Transformer
☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络
☁️27. 解决小目标问题——校正卷积取代特征提取网络中的常规卷积
☁️28. ICLR 2022涨点神器——即插即用的动态卷积ODConv
☁️29. 引入Swin Transformer v2.0版本
☁️30. 引入10月4号发表最新的Transformer视觉模型MOAT结构
☁️31. CrissCrossAttention注意力机制
☁️32. 引入SKAttention注意力机制
☁️33. 引入GAMAttention注意力机制
☁️34. 更换激活函数为FReLU
☁️35. 引入S2-MLPv2注意力机制
☁️36. 融入NAM注意力机制
☁️37. 结合CVPR2022新作ConvNeXt网络
☁️38. 引入RepVGG模型结构
☁️39. 引入改进遮挡检测的Tri-Layer插件 | BMVC 2022
☁️40. 轻量化mobileone主干网络引入
一般解决问题为:图像待测目标与背景相似,目标难以辨识的检测难点
☁️1. 添加SE注意力机制
☁️2.添加CBAM注意力机制
☁️3. 添加CoordAtt注意力机制
☁️4. 添加ECA通道注意力机制
☁️23. 引入SimAM无参数注意力
☁️31. CrissCrossAttention注意力机制
☁️32. 引入SKAttention注意力机制
☁️33. 引入GAMAttention注意力机制
☁️35. 引入S2-MLPv2注意力机制
☁️36. 融入NAM注意力机制
一般解决问题为:轻量化网络,适应应用部署
☁️11. 主干网络C3替换为轻量化网络MobileNetV3
☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
☁️14. 主干网络C3替换为轻量化网络Ghostnet
☁️15. 网络轻量化方法深度可分离卷积
☁️16. 主干网络C3替换为轻量化网络PP-LCNet
☁️40. 轻量化mobileone主干网络引入
一般解决问题为:原损失函数的缺陷不足
☁️7. 损失函数改进
☁️10. 损失函数改进为SIOU
☁️18. 损失函数改进为Alpha-IoU损失函数
一般解决问题为:同类别目标相互重叠导致错漏检问题
☁️8. 非极大值抑制NMS算法改进Soft-nms
☁️19. 非极大值抑制NMS算法改进DIoU NMS
一般解决问题为:拟补全卷积网络缺乏长距离建模能力
☁️17. CNN+Transformer——融合Bottleneck Transformers
☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
☁️25. 引入Swin Transformer
☁️29. 引入Swin Transformer v2.0版本
一般解决问题为:目标尺度变化多样的问题
☁️5. 改进特征融合网络PANET为BIFPN
☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络
一般解决问题为:原K-Means算法缺陷
☁️9. 锚框K-Means算法改进K-Means++