YOLOv7改进:在不同位置添加biformer

YOLOv7改进:在不同位置添加biformer_第1张图片

Bi-Level Routing Attention

为了缓解多头自注意力(Multi-Head Self-Attention, MHSA)的可扩展性问题,先前的一些方法提出了不同的稀疏注意力机制,其中每个查询只关注少量的键值对,而非全部。然而,这些方法有两个共性问题:

  1. 要么使用手工制作的静态模式(无法自适应);
  2. 要么在所有查询中共享键值对的采样子集(无法做到互不干扰);

为此,作者探索了一种动态的、查询感知的稀疏注意力机制,其关键思想是在粗糙区域级别过滤掉大部分不相关的键值对,以便只保留一小部分路由区域(这不就把冗余的信息干掉了吗老铁们)。其次,作者在这些路由区域的联合中应用细粒度的token-to-token注意力。

YOLOv7改进:在不同位置添加biformer_第2张图片

YOLOv7改进:在不同位置添加biformer_第3张图片

 

本文以yolov7-tiny.yaml为基础网络结构进行修改

你可能感兴趣的:(深度学习,python,pytorch,YOLO,人工智能)