注意力机制论文研读

参考:
计算机视觉中的注意力机制

然后找了个博客,里面有论文引用,这篇博客真不错,把其论文好好看看
https://blog.csdn.net/Wayne2019/article/details/78488142

基于注意力机制的细腻度图像分类,里面也有篇论文,值得一看。

另外,我想寻找2018年甚至2019年的这领域的文章。

突然发现一片硕士论文讲述的是注意力机制的,基于注意力机制的图像分类深度学习方法研究,,可以作为我论文行文结构的借鉴。阅读记录如下:
第三章,基于卷积激活输出的多通道注意力机制图像分类,这一章明白,你得前面整它几层卷积,来进行充分提取底层特征,然后后面才好加注意力机制。
实验中提到了,使用了VGG16前几层的权重作为预训练基础网络
换了个说法,把人家预训练好的模型说成包含多层次特征,

还有一篇没下载下来,结合注意力机制的细粒度物体分类技术研究不知道质量如何。

我有种预感,当我读完这些注意力机制的文章之后,当我把最近几年的图像细粒度分类论文看完之后,一定会有自己的想法冒出来。现在我需要知道,卷积网络各层提取的都是些什么特征,如果在前面几层加入注意力机制,和最后再加入注意力机制,那么实际效果有没有区别。

这里我要提一句,吃别人嚼剩下的东西所获取的营养,一定不如第一个人获得的营养多。所以,要想深入了解,还是要阅读原版英文文献。

突然冒出来一个问题,我追踪state of the art 的话,是看某个著名的竞赛发表的论文进展呢,还是在顶级会议上搜索相关领域呢?那么图像细粒度有没有著名的公开数据集比赛呢。

不小心又发现了一篇比较新的博客,深度学习之卷积网络attention机制SENET、CBAM模块原理总结 里面不仅提到了SENET,还提到了一个2018年的冠军模型,值得一看
又找到了一篇关于CBAM的解读,还有一篇也是这个网络的解读,这个访问量也是挺多的,但是可以先看看人家消化总结的,对论文大致有一个了解,然后更重要的是看人家的原文。

卷积神经网络中的一些知识是在哪儿学习的呢?比如为何要resnet为何选择224*224的尺寸大小等等,这些知识比较零散。还比如一些尺寸设计的知识。
对一些理论还是欠缺,比如感受野的理解,看看人家到底在哪儿学习的吧。

你可能感兴趣的:(个人学习,论文研读)