【Paper Reading】DETR:End-to-End Object Detection with Transformers
背景Transformer已经在NLP领域大展拳脚,逐步替代了LSTM/GRU等相关的RecurrentNeuralNetworks,相比于传统的RNN,Transformer主要具有以下几点优势可解决长时序依赖问题,因为Transformer在计算attention的时候是在全局维度进行展开计算的,所以不存在长时序中的梯度消失等问题。Transformer的encoder和decoder在某些场