有任何问题欢迎在下面留言
本篇文章的代码运行界面均在Pycharm中进行
本篇文章配套的代码资源已经上传
点我下载源码
DETR 算法解读
DETR 源码解读1(项目配置/CocoDetection类)
DETR 源码解读2(ConvertCocoPolysToMask类)
DETR 源码解读3(DETR类)
DETR 源码解读4(Joiner类/PositionEmbeddingSine类/位置编码/backbone)
位置:models/backbone.py/Joiner类
class Joiner(nn.Sequential):
def __init__(self, backbone, position_embedding):
super().__init__(backbone, position_embedding)
def forward(self, tensor_list: NestedTensor):
xs = self[0](tensor_list)
out: List[NestedTensor] = []
pos = []
for name, x in xs.items():
out.append(x)
pos.append(self[1](x).to(x.tensors.dtype))
return out, pos
nn.Sequential
NestedTensor
的参数tensor_list
self[0]
指的是nn.Sequential
容器中的第一个模块,根据__init__
方法中的定义,这是backbone
模块。所以,self[0](tensor_list)
表示对输入的tensor_list
执行backbone
模块的前向传播out
,用于存储backbone
输出的特征**:初始化一个空列表
pos,用于存储由
position_embedding`生成的位置编码xs
x
添加到out
列表中self[1]
指的是nn.Sequential
容器中的第二个模块,根据初始化时的顺序,这是position_embedding
模块。因此,self[1](x)
表示对backbone
的输出x
执行position_embedding
模块的前向传播位置:models/position_encoding.py/PositionEmbeddingSine类
DETR提供了两种位置编码方式,一种是和Transformer一样的正余弦,另一种是可学习的位置编码方式,下面是和Transformer一样的正余弦
class PositionEmbeddingSine(nn.Module):
def __init__(self, num_pos_feats=64, temperature=10000, normalize=False, scale=None):
super().__init__()
self.num_pos_feats = num_pos_feats
self.temperature = temperature
self.normalize = normalize
if scale is not None and normalize is False:
raise ValueError("normalize should be True if scale is passed")
if scale is None:
scale = 2 * math.pi
self.scale = scale
def forward(self, tensor_list: NestedTensor):
x = tensor_list.tensors
mask = tensor_list.mask
assert mask is not None
not_mask = ~mask
y_embed = not_mask.cumsum(1, dtype=torch.float32)
x_embed = not_mask.cumsum(2, dtype=torch.float32)
if self.normalize:
eps = 1e-6
y_embed = y_embed / (y_embed[:, -1:, :] + eps) * self.scale
x_embed = x_embed / (x_embed[:, :, -1:] + eps) * self.scale
dim_t = torch.arange(self.num_pos_feats, dtype=torch.float32, device=x.device)
dim_t = self.temperature ** (2 * (dim_t // 2) / self.num_pos_feats)
pos_x = x_embed[:, :, :, None] / dim_t
pos_y = y_embed[:, :, :, None] / dim_t
pos_x = torch.stack((pos_x[:, :, :, 0::2].sin(), pos_x[:, :, :, 1::2].cos()), dim=4).flatten(3)
pos_y = torch.stack((pos_y[:, :, :, 0::2].sin(), pos_y[:, :, :, 1::2].cos()), dim=4).flatten(3)
pos = torch.cat((pos_y, pos_x), dim=3).permute(0, 3, 1, 2)
return pos
通过这种方式,PositionEmbeddingSine类为每个像素位置生成了一个独特的编码,这个编码通过正弦和余弦函数的交替使用捕获了空间位置信息。正弦和余弦函数的周期性和连续性特点使得这种编码非常适合表示位置关系,有助于提高模型对图像空间信息的理解和处理能力
DETR 算法解读
DETR 源码解读1(项目配置/CocoDetection类)
DETR 源码解读2(ConvertCocoPolysToMask类)
DETR 源码解读3(DETR类)
DETR 源码解读4(Joiner类/PositionEmbeddingSine类/位置编码/backbone)