优化改进YOLOv5算法:加入大核分离卷积注意力模块( Large Separable Kernel Attention),实现暴力涨点同时显著减少计算复杂性和内存——(超详细)
1LargeSeparableKernelAttention介绍论文:LargeSeparableKernelAttention:RethinkingtheLargeKernelAttentionDesigninCNN具有大内核注意力(LKA)模块的视觉注意力网络(VAN)已被证明在一系列基于视觉的任务中提供了卓越的性能,超过了视觉转换器(ViTs)。然而,随着卷积核大小的增加,这些LKA模块中的