可以说这个春天是相当不平凡了,2020年一开始,又是暗杀,又是大火,又是暴乱的,过了两天又开始瘟疫肆虐了。仔细想想,作为一个历史的见证人,我也做不了啥子,在家里好好学习,就算是为国家做贡献了。不过如果是单单学习而不去记录的话,往往会学了以后没过多少时间就把东西忘了,便决定写篇周记把相关的东西记录下。
这周主要是在学习一些理论性的东西,论文比较泛的看了几篇,把我认为有意义的几篇给放一下帮助下记忆。
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
作者:{Zhecao, shihenw}@cmu.edu {tsimon, yaser}@cs.cmu.edu
文章主要内容:提出了一种在图像中识别多人二维姿态的算法,就像下面这张图这样(图像来自原作者论文),其中PAFs的做法十分值得学习。
作者指出,那时候普遍使用的姿态检测的方法是先采用一个行人检测器来检测出图像中的行人,然后再对每个行人来进行姿态的解算。但是这种做法有几点不好的地方:
所以作者设计了以下方法:
具体如作者之前在CVPR发表的文章《Realtime Multi-Person 2D Pose Estimation using Part Affifinity Fields》中图2所描述的那样
具体网络和损失函数的计算都在文章第三部分,但其中比较值得在意的是作者在计算的过程中,用了两级的损失函数,如果是设计非端到端的网络,保证中间结果的连贯性,感觉很值得学习。
论文地址:https://arxiv.org/pdf/1812.08008.pdf (在引用文献中有该实验室先前的结果,比较好且连贯的解释了这想法的来源)
代码地址:https://github.com/CMU-Perceptual-Computing-Lab/openpose
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
作者:{yunsd101, i0you200, jychoi}@snu.ac.kr, [email protected], [email protected]
文章主要内容:提出了一种网络架构,能够同时支持相当于半监督学习的强化学习和监督学习来实现目标跟踪,与以往的跟踪不同,由于是直接做的前景分离(貌似连匹配都省了,我没看出什么匹配或者演化预测的部分)所以速度要比那时候许多的网络都要快不少,下面是文章中的实验结果。
作者就检测-匹配-跟踪的CNN算法提出了一些说法,说明这种做法的往往集中于如何更好的分离目标和背景,但是往往会忽视以下问题:
所以作者提出了以下的方法:
整个方法可以通过上述的图很好的进行阐述,主要分成以下几个步骤。
具体的做法,可以看下作者团队CVPR的演讲视频。
强化那块的做法和DQN普遍的做法一样,作者采用了IOU > 0.7 作为奖励机制,其余机制基本是一样的,但感觉本质还是没有逃出监督学习。
作者项目页(含源码地址):https://sites.google.com/view/cvpr2017-adnet
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
其余部分,看了下关于GCN的介绍论文,GCN的介绍文章很多,下面直接丢链接
Deep Convolutional Networks on Graph-Structured Data
Benchmarking Graph Neural Networks
如何理解 Graph Convolutional Network(GCN)?