图像分割二十年,盘点影响力最大的10篇论文

来源丨极市平台

极市导读

 

图像分割(image segmentation)技术是计算机视觉领域的个重要的研究方向,近些年,图像分割技术迅猛发展,在多个视觉研究领域都有着广泛的应用。本文盘点了近20年来影响力最大的 10 篇论文。

注:这里的影响力以Web of Science上显示的论文的引用量排序,截止时间为2020年9月27日。

-TOP10-

Mask R-CNN 

被引频次:1839

作者:Kaiming He,Georgia Gkioxari,Piotr Dollar,Ross Girshick.
发布信息: 2017,16th IEEE International Conference on Computer Vision (ICCV)
论文:https://arxiv.org/abs/1703.06870
代码:https://github.com/facebookresearch/Detectron

Mask R-CNN作为非常经典的实例分割(Instance segmentation)算法,在图像分割领域可谓“家喻户晓”。Mask R-CNN不仅在实例分割任务中表现优异,还是一个非常灵活的框架,可以通过增加不同的分支完成目标分类、目标检测、语义分割、实例分割、人体姿势识别等多种不同的任务。

图像分割二十年,盘点影响力最大的10篇论文_第1张图片 图像分割二十年,盘点影响力最大的10篇论文_第2张图片

-TOP9-

SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation

被引频次:1937

作者: Vijay Badrinarayanan,Alex Kendall,Roberto Cipolla
发布信息:2015,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
论文:https://arxiv.org/pdf/1511.00561.pdf
代码:https://github.com/aizawan/segnet

SegNet是用于进行像素级别图像分割的全卷积网络。SegNet与FCN的思路较为相似,区别则在于Encoder中Pooling和Decoder的Upsampling使用的技术。Decoder进行上采样的方式是Segnet的亮点之一,SegNet主要用于场景理解应用,需要在进行inference时考虑内存的占用及分割的准确率。同时,Segnet的训练参数较少,可以用SGD进行end-to-end训练。

图像分割二十年,盘点影响力最大的10篇论文_第3张图片 图像分割二十年,盘点影响力最大的10篇论文_第4张图片

-TOP8-

DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

被引频次:2160

作者: Chen Liang-Chieh,Papandreou George,Kokkinos Iasonas等.
发布信息:2018,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

DeepLabv1:https://arxiv.org/pdf/1412.7062v3.pdf
DeepLabv2:https://arxiv.org/pdf/1606.00915.pdf
DeepLabv3:https://arxiv.org/pdf/1706.05587.pdf
DeepLabv3+:https://arxiv.org/pdf/1802.02611.pdf
代码:https://github.com/tensorflow/models/tree/master/research/deeplab

DeepLab系列采用了Dilated/Atrous Convolution的方式扩展感受野,获取更多的上下文信息,避免了DCNN中重复最大池化和下采样带来的分辨率下降问题。2018年,Chen等人发布Deeplabv3+,使用编码器-解码器架构。DeepLabv3+在2012年pascal VOC挑战赛中获得89.0%的mIoU分数。

图像分割二十年,盘点影响力最大的10篇论文_第5张图片 图像分割二十年,盘点影响力最大的10篇论文_第6张图片 图像分割二十年,盘点影响力最大的10篇论文_第7张图片

DeepLabv3+

-TOP7-

Contour Detection and Hierarchical Image Segmentation

被引频次:2231

作者: Arbelaez Pablo,Maire Michael,Fowlkes Charless等.
发布信息:2011,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
论文和代码:https://www2.eecs.berkeley.edu/Research/Projects/CS/vision/grouping/resources.html

Contour Detection and Hierarchical Image Segmentation通过检测轮廓来进行分割,以解决不加交互的图像分割问题,是分割领域中非常重要的一篇文章,后续很多边缘检测算法都利用了该模型。

图像分割二十年,盘点影响力最大的10篇论文_第8张图片

-TOP6-

Efficient graph-based image segmentation

被引频次:3302

作者:Felzenszwalb PF,Huttenlocher DP
发布信息:2004,INTERNATIONAL JOURNAL OF COMPUTER VISION
论文和代码:http://cs.brown.edu/people/pfelzens/segment/

Graph-Based Segmentation 是经典的图像分割算法,作者Felzenszwalb也是提出DPM算法的大牛。该算法是基于图的贪心聚类算法,实现简单。目前虽然直接用其做分割的较少,但许多算法都用它作为基石。

图像分割二十年,盘点影响力最大的10篇论文_第9张图片

-TOP5-

SLIC Superpixels Compared to State-of-the-Art Superpixel Methods

被引频次:4168

作者: Radhakrishna Achanta,Appu Shaji,Kevin Smith,Aurelien Lucchi,Pascal Fua,Sabine Susstrunk.
发布信息:2012,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
论文和代码:https://ivrlwww.epfl.ch/supplementary_material/RK_SLICSuperpixels/index.html

SLIC 算法将K-means 算法用于超像素聚类,是一种思想简单、实现方便的算法,SLIC算法能生成紧凑、近似均匀的超像素,在运算速度,物体轮廓保持、超像素形状方面具有较高的综合评价,比较符合人们期望的分割效果。

图像分割二十年,盘点影响力最大的10篇论文_第10张图片

-TOP4-

U-Net: Convolutional Networks for Biomedical Image Segmentation

被引频次:6920

作者: Ronneberger Olaf,Fischer Philipp,Brox Thomas
发布信息:2015,18th International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI) 
代码:https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/

U-Net是一种基于深度学习的图像语义分割方法,在医学图像分割领域表现尤为优异。它基于FCNs做出改进,相较于FCN多尺度信息更加丰富,同时适合超大图像分割。作者采用数据增强(data augmentation),通过使用在粗糙的3*3点阵上的随机取代向量来生成平缓的变形,解决了可获得的训练数据很少的问题。并使用加权损失(weighted loss)以解决对于同一类的连接的目标分割。

图像分割二十年,盘点影响力最大的10篇论文_第11张图片

-TOP3-

Mean shift: A robust approach toward feature space analysis

被引频次:6996

作者: Comaniciu D,Meer P
发布信息:2002,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Meanshift是基于像素聚类的代表方法之一,是一种特征空间分析方法。密度估计(Density Estimation) 和mode 搜索是Meanshift的两个核心点。对于图像数据,其分布无固定模式可循,所以密度估计必须用非参数估计,选用的是具有平滑效果的核密度估计(Kernel density estimation,KDE)。Meanshift 算法的稳定性、鲁棒性较好,有着广泛的应用。但是分割时所包含的语义信息较少,分割效果不够理想,无法有效地控制超像素的数量,且运行速度较慢,不适用于实时处理任务。

-TOP2-

Normalized cuts and image segmentation

被引频次:8056

作者:Shi JB,Malik J
发布信息:2000,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE 论文:https://ieeexplore.ieee.org/abstract/document/1000236

NormalizedCut是基于图论的分割方法代表之一,与以往利用聚类的方法相比,更加专注于全局解的情况,并且根据图像的亮度,颜色,纹理进行划分。

图像分割二十年,盘点影响力最大的10篇论文_第12张图片

-Top1-

Fully Convolutional Networks for Semantic Segmentation

被引频次:8170

作者: Long Jonathan,Shelhamer Evan,Darrell Trevor
发布信息:2015,IEEE Conference on Computer Vision and Pattern Recognition (CVPR)
代码:https://github.com/shelhamer/fcn.berkeleyvision.org

FCN是图像分割领域里程碑式论文。作为语义分割的开山之作,FCN是当之无愧的TOP1。它提出了全卷积网络(FCN)的概念,针对语义分割训练了一个端到端,点对点的网络,它包含了三个CNN核心思想:

(1)不含全连接层(fc)的全卷积(fully conv)网络。可适应任意尺寸输入。
(2)增大数据尺寸的反卷积(deconv)层。能够输出精细的结果。
(3)结合不同深度层结果的跳级(skip)结构。同时确保鲁棒性和精确性。

图像分割二十年,盘点影响力最大的10篇论文_第13张图片

参考
[1]FCN的学习及理解(Fully Convolutional Networks for Semantic Segmentation),CSDN
[2]mean shift 图像分割 (一),CSDN
[3]https://zhuanlan.zhihu.com/p/49512872
[4]图像分割—基于图的图像分割(Graph-Based Image Segmentation),CSDN
[5]https://www.cnblogs.com/fourmi/p/9785377.html

推荐阅读

解读人工智能产业的2020:认知AI还未实现,我们仍然正在路上

谷歌、OpenAI等警告:BERT、GPT-3等大型语言模型都有一个重大缺陷,很危险...

谈一谈我对AI项目落地的看法

觉得有用麻烦给个在看啦~  

你可能感兴趣的:(算法,计算机视觉,人工智能,机器学习,深度学习)