语义分割之large kernel matters个人总结

1. Architecture

作者想要解决的是分类与定位的对立矛盾。
分类具有平移不变性,而定位则对位置变化非常敏感。
在分割任务中,全卷积的网络更侧重于定位,往往会让分类任务获得的感受野较小,这会导致无法获得足够的object信息,不利于分类。
于是作者增大了感受野。
语义分割之large kernel matters个人总结_第1张图片
整体的decoder过程依旧是老套路,融合+反卷积。不过,引入了两个新的block–GCN和BR。

2. GCN

类似于Inception结构,可以用较少的参数得到较大的感受野。 K可以取大一点,light head rcnn里取得是15.
语义分割之large kernel matters个人总结_第2张图片

3. BR

这块类似于残差block。S_hat = S + residual(S)
作者这块相当于建了一个模型,S得到是粗糙的分割图,residual(S)则侧重的是学习精细的边缘信息
以此来提高分割的效果。
语义分割之large kernel matters个人总结_第3张图片

你可能感兴趣的:(深度学习)