pytorch attention

 

预测一张:255*255 40ms

1.注意力机制需要维度相同,效果是把第二维变成1,比如(3,255,4,4)变成(3,1,4,4)

2.基础网络需要17ms,金字塔网络、注意力机制 需要8ms,候选框 需要16ms

https://github.com/rainofmine/Face_Attention_Network

 

感觉这个是打印注意力特征

# i = 1
# for level in attention:
#     i += 1
#     level = level.squeeze(0)
#     level = np.array(255 * unnormalize(level)).copy()
#     level = np.transpose(level, (1, 2, 0))
#     plt.imsave(os.path.join('./output', str(i) + '.jpg'), level[:,:,0])

你可能感兴趣的:(torch)