【PraNet】主要架构解读-------wmilk

Res2net:A new multi-scale backbone architecture(Res2net:一种新的多尺度骨干架构)

 【PraNet】主要架构解读-------wmilk_第1张图片

·                         ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         图一

右边模块在左边传统的瓶颈块中增加了多分支结构,此分支能够对输入图像进行不同像素大小的观察,拓展了系统对图像的感受视野,能增加读取的信息量。

【PraNet】主要架构解读-------wmilk_第2张图片

                                                                   图二

【PraNet】主要架构解读-------wmilk_第3张图片

                                                                   图三

如图一所示,第一个分支使用原始视野,所以不使用改变焦距处理;第二个分支改变了原始视野的焦距;第三个分支则在第二个分支的基础上进一步进行改变,再次减小观察的范围,扩大对部分区域观测准确度;第四个分支在第三个分支的基础上进行相同操作。因为四个分支是来自不同通道,所以最后使用conv_cat()将四个分支连接起来。

Feature Aggregating via Parallel Partial Decoder(过并行部分解码器进行特征聚合)

【PraNet】主要架构解读-------wmilk_第4张图片

                                                                    图四

                                                                    图五

【PraNet】主要架构解读-------wmilk_第5张图片

                                                                    图六

【PraNet】主要架构解读-------wmilk_第6张图片

                                                                      图七

并行解码器的作用是为了减少低层特征数据量庞大,有用数据占比低的问题。只提取高层特征,并且提取多个高层特征后连接来提高目标数据含量。

图七中多次上采样目的,博主认为是相对低层的高层(第三层对第四层)来说,底层拥有数据更多,目标数据含量较低,所以采取多次采样的方式来减少非目标数据。

 Reverse Attention Module(反向注意模块)

【PraNet】主要架构解读-------wmilk_第7张图片

                                                                        图八

【PraNet】主要架构解读-------wmilk_第8张图片

                                                                        图九

【PraNet】主要架构解读-------wmilk_第9张图片

                                                                        图十

通过从侧输出特征中去除当前预测的显著区域,该网络最终可以探测到缺失的物体部件和细节,从而获得较高的分辨率和精度。

如图八所示,将全局图依次和第五层(f5)、第四层(f4)和第三层(f3)进行聚合使用高三层的特征来弥补全局图缺失的特征。

图十是第三层的反向注意模块和经过第四层和第五层聚合的全局图进行聚合操作。第五层和全局图聚合,第四层和已经与第五层聚合后的全局图聚合和图十类似。

 

 

 

你可能感兴趣的:(python,计算机视觉,机器学习,人工智能,神经网络)