本文改进:可变形大核注意力(D-LKA Attention),大卷积核增强注意力机制,引入到YOLOv8,与C2f结合实现二次创新
D-LKA Attention 亲测在多个数据集能够实现涨点,同样适用于小目标检测
YOLOv8改进专栏:http://t.csdnimg.cn/hGhVK
学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研;
![YOLOv8改进:卷积变体系列篇 | 可变形大核注意力(D-LKA Attention),实现涨点_第1张图片](http://img.e-com-net.com/image/info8/ce98e215551047399008aae78f592fd0.jpg)
1.D-LKA Net介绍
![YOLOv8改进:卷积变体系列篇 | 可变形大核注意力(D-LKA Attention),实现涨点_第2张图片](http://img.e-com-net.com/image/info8/7a39a171699e426eb3361d79db066f76.jpg)
论文:arxiv.org/pdf/2309.00121.pdf
摘要:医学图像分割通过 Transformer 模型得到了显着改进,该模型在掌握深远的上下文和全局上下文信息方面表现出色。 然而,这些模型不断增长的计算