YOLOv8改进:卷积变体系列篇 | 可变形大核注意力(D-LKA Attention),实现涨点

 本文改进:可变形大核注意力(D-LKA Attention),大卷积核增强注意力机制,引入到YOLOv8,与C2f结合实现二次创新

D-LKA Attention 亲测在多个数据集能够实现涨点,同样适用于小目标检测

YOLOv8改进专栏:http://t.csdnimg.cn/hGhVK

学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研;

YOLOv8改进:卷积变体系列篇 | 可变形大核注意力(D-LKA Attention),实现涨点_第1张图片

 1.D-LKA Net介绍

YOLOv8改进:卷积变体系列篇 | 可变形大核注意力(D-LKA Attention),实现涨点_第2张图片

论文:arxiv.org/pdf/2309.00121.pdf

 摘要:医学图像分割通过 Transformer 模型得到了显着改进,该模型在掌握深远的上下文和全局上下文信息方面表现出色。 然而,这些模型不断增长的计算

你可能感兴趣的:(YOLOv8改进,YOLO,计算机视觉,目标检测,人工智能,视觉检测,opencv)