本文改进:可变形大核注意力(D-LKA Attention),大卷积核增强注意力机制,引入到YOLOv8,与C2f结合实现二次创新
D-LKA Attention 亲测在多个数据集能够实现涨点,同样适用于小目标检测
YOLOv8改进专栏:http://t.csdnimg.cn/hGhVK
学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研;
1.D-LKA Net介绍
论文:arxiv.org/pdf/2309.00121.pdf
摘要:医学图像分割通过 Transformer 模型得到了显着改进,该模型在掌握深远的上下文和全局上下文信息方面表现出色。 然而,这些模型不断增长的计算