ORB: an efficient alternative to SIFT or SURF
Taylor Guo, 2016年3月11日星期五 20:45
继”ORB-SLAM: Tracking and Mapping Recognizable Features”,”Bags of Binary Words for Fast Place Recognition in Image Sequences”后已经对ORB SLAM的基本框架
和基础数据结构有了比较清晰的认识,这篇”ORB: an efficient alternative to SIFT or SURF”是对特征匹配进一步理解。
ORB是Oriented FAST and Rotated BRIEF的简称。ORB将在本文中详细描述。Ethan Rublee and Vincent Rabaud and Kurt Konolige and Gary Bradski,《ORB: an efficient alternative to SIFT or SURF》, ICCV 2011。OpenCV2.3中已经实现。
在翻译的过程中,为了让这些工作更有实际意义,我尽可能地将论文和代码结合起来、将理论和实际应用结合。文中蓝色字体或斜体的部分,是译者自己添加的部分,读者可自行选择。
特征匹配是许多计算机视觉问题的基本问题,如目标(物体)识别或运动分析的三维结构信息。目前特征查找和匹配的特征向量描述计算代价巨大。本文提出了一种基于BRIEF的快速二进制特征向量描述器,称为ORB。它具有旋转不变特性和噪音抑制的特性。我们通过各种状态下的实验,演示了ORB如何在两个维度上,运算速度快于SIFT,并且在智能手机上测试了物体识别和跟踪的应用程序。
SIFT关键点检测和特征向量描述,这项技术的发明已经有超过10多年的历史,它成功应用于各种使用视觉特征的场合,包括物体(目标)识别,图像配准与拼接,视觉地图构建。但由于需要大量运算而受限,尤其是实时应用的系统中,如视觉里程计或像在手机这样低成本的设备中。于是出现了较小运算代价,用于大量密集数据的图像像素查找算法的出现,其中最优秀的是SURF。还有一些研究旨在提高SIRF的运算效率,大部分是带有GPU的设备。
本文提出了一种高效算法,与SIFT有相同的特征匹配性能,同时具有较强的图像噪声抑制行性能,能够用于实时系统中。我们的目的是加强通用型图像匹配程序的功能,使得无GPU加速的低功耗设备能够处理全景图像拼接和图像块追踪,以减少物体识别的运算时间。在这些维度上,我们的特征向量描述方法和SIFT性能一样,优于SURF。我们的特征描述基于FAST关键点检测和BRIEF特征向量描述器,因此我们把它叫做ORB(Oriented FAST and Rotated BRIEF)。这些技术性能优良、成本较低,非常有吸引力。本文中,相对于SIFT,我们提出了这些技术的局限性,尤其是BRIEF不具备旋转不变性。我们的主要贡献在于:
为了检验ORB,我们对ORB,SIFT,SURF的相关特性进行了对比实验,主要是原始数据匹配能力和图像匹配性能。我们还在智能手机上演示了ORB图像区块追踪的应用。另外,ORB的使用并不会受到SIFT和SURF的使用许可的限制。
关键点 FAST和它的变形方法是实时系统中用于视觉特征匹配查找关键点的主要方法,比如在PTAM中的使用。尽管仍然需要金字塔模型在尺度上对该方法进行增强,但这个方法还是可以很有效地查找合理的角关键点,在我们的例子中,哈里斯角点检测滤除边缘并提供了一个合理的分值。
很多关键点检测模型都包含了定位算子(比如SIFT和SURF),FAST算法却没有。有很多方法可以描述关键点的方向信息,大多采用方向梯度直方图计算,比如SIFT或者类似于SURF图案区块。这些方法要么计算量要求大,要么像SURF那样只是近似估计。论文22,分析了各种测量角点方向的方法,我们借用了他的质心方法。与SIFT中的定位算子中单个关键点有多个值的状况有所不同,质心算子只给出一个主要的结果。
特征向量描述子 BRIEF是特征向量描述子,其结果是在平滑图像块中使用简单的二进制比较两个像素的值。在很多方面和SIFT的性能非常相近,包括对于光照,模糊,图像变形的鲁棒性。但它对于平面旋转非常敏感。
BRIEF的研究源于用二进制结果生成一个树形分类模型。一旦对500个左右的典型关键点完成训练,树状模型就可以用于判断任何关键点并返回特征标记。同样的方法,我们就可以查找对方向最不敏感的比较结果。用于查找不相关比较结果的经典方法是主因分析法,SIFT的主因分析法(PCA)可以去掉大量冗余信息。但是,二进制的比较结果太多占用大量内存不能采用PCA方法,而采用穷举搜索算法。
视觉字典方法采用离线聚类查找不关联的样本用于匹配。这些方法用于搜索不关联的二进制比较结果也有可能有用。
与ORB最相似的方法是论文3,它提出了一种多尺度的哈尔斯关键点和图案方向描述子。这种描述子用于图像配置和拼接,表现出良好的旋转和尺度不变特性。但计算效率没有我们的高。
FAST特征方法由于运算速度快而被广泛采用。但FAST特征却不具备方向特性。在这一章,我们将为它添加一个高效的方向特性。
我们开始侦测图像的FAST特征点。FAST算法的一个参数,是一个亮度阈值判断中心像素(目标像素)和它周围一圈像素的比值。我们采用性能最好的FAST-9算法(半径为9个像素)。
FAST算法并不生成角点,我们发现它在边缘上有明显特征。我们采用Harris角点(也叫特征点,关键点,兴趣点) 检测器算法来规则化局部FAST关键点。对于N个局部关键点,首先设置一个很低的阈值以足够获得N个关键点,再根据Harris角点检测器来把它们规则化,选取前N个点。
FAST算法并不能产生多尺度的特征点。我们采用图像金字塔尺度模型,在金字塔的每层采用Harris滤波生成FAST关键点。
/*作者寥寥数句话,就把FAST特征和Harris角点检测算法给说完了,这背后巨大的知识量,额,我还没完全消化。这里就停下来先搞懂<图像处理>里面的基于<图像表达>,<图像数据结构>之后的<图像预处理>部分的<图像特征检测>中的<角点检测>。*/
/*说了这么多,就是希望能够找到这些东西来龙去脉、前世今生,以便日后用起来轻松自如,举一反三,不用重复劳动,乱读书、读烂书。*/
我们采用灰度质心定位的方法计算角点的方向。灰度质心定位方法的基本假设是角点与中心像素的亮度不同,这个向量可以推导出质心的方向。
《Measuring Corner Properties》(1999年)的作者Rosin定义了图像块的矩:
其中I(x,y)为点(x,y)处的灰度值。
那么我们可以得到图像区块的质心为:
那么我们可以从图像区块的角点中心O到质心(中心)像素的方向,构建一个向量 。
那么图像区块的方向可以简单表示为:
其中,atan2是象限相关的arctan函数。
Rosin认为,这跟角点灰度是亮还是暗有关,然而,我们并不关心这些,最重要的是角度的测量。
为了提高方法的旋转不变性,我们要尽量确保用于计算矩的像素点(x,y)位于半径为r的圆形区域内。既然图像区块的面积是半径为r的圆形区域,那么x,y∈[−r,r]。当|C|接近0时,该方法就变得不稳定。但采用FAST角点情况下,这种情况基本不会出现。
我们对比了质心定位法与基于梯度的方法,BIN(直方图概念相关)和MAX(高等数学方向导数和梯度)。在这两种方法中,可以通过计算平滑图像的X和Y梯度。MAX选择图像区块关键点中最大的梯度方向。BIN在10个区间里面选择最大的形成直方图的梯度方向。尽管只选择了一个方向,但BIN和SIFT算法比较类似。图2给出了平面旋转带噪声的图像的数据集上的方差比较。它们的梯度方向测量都没那么好,但在有图像噪声的情况下,质点定位法给你出的方向比较一致。
在这一章,将介绍Steered BRIEF (转向BRIEF)特征描述子,带有方向旋转变量后BRIEF性能变差,我们将演示如何有效地改进算法。我们提供了具有更少关联性的二值测试方法用来获得更好的rBRIEF特征描述子,还与SIFT和SURF做了比较。
BRIEF概览
BRIEF(BinaryRobust Independent Elementary Features)特征描述子,是对图像区块二值字符串的描述,图像区块由二值灰度比较的结果构成。对于平滑的图像区块P,二值判断方法τ如下定义:
P(x)是图像区块p的在点x的灰度值。
特征定义为具有n个二值的向量:
比较结果有很多种不同的分布方式,以图像区块中心进行高斯分布。选择向量长度n=256。
在做比较之前,对图像做平滑处理非常重要。这里采用积分图对图像做平滑处理,每个测试点是一个包含31x31像素区块的5x5子窗口。这些选择标准来自于我们之前论文6的实验。
具有方向旋转的BRIEF
我们希望BRIEF具有旋转不变的特性。如图7所示,BRIEF的匹配性能在较小的角度内剧烈下降。
Calonder建议针对一组旋转和每个区块的图像形变计算BRIEF特征描述子,但计算代价昂贵。一个更有效率的方法是根据关键点的定位调整BRIEF的方向。对任何在点(Xi, Yi)上的n个二值测试特征组,定义2xn的矩阵:
采用图像区块旋转角度θ和相应的旋转向量Rθ,我们构建一个可转向的S版本Sθ:
那么具有旋转方向BRIEF就变成:
我们将角度分散到2π/30(12度)增量中,构建一个存储已经计算的BRIEF模式的查找表。关键点方向θ对多视图具有一致性,校准的点Sθ将被用于计算它的特征描述子。
BRIEF的一个最好的特征就是每个特征位的方差比较大,均值接近0.5。图3给出了典型的高斯BRIEF模式包含256bits和100K关键点。对一个特征位,均值0.5的最大样本方差0.25。另外,一旦BRIEF根据关键点方向进行定位形成方向旋转BRIEF,均值就会呈分散模式,如图3所示。对这种情况的理解是,具有方向的角点关键点对二值比较结果具有更高的均衡性。
由于对数据输入反馈不同,方差越大,特征区别越明显。每个比较都对结果有影响,另一个期望的特性是使二值结果不相关。为了分析BRIEF向量中二值测试结果的相关性和方差,我们考查具有100K关键点的BRIEF和具有方向旋转的BRIEF的反馈情况。测试结果如图4所示。我们采用PCA算法对数据分析,绘制了40个最高的特征值(经过2个特征描述子的聚类)。BRIEF和旋转BRIEF都具有很高的初始特征值,也提供了二值比较结果的相关性------更重要的是这些信息分布在前10-15个主成分上。旋转BRIEF具有明显的很低的方差,但是特征值也很低,那么区别就不明显。很明显,BRIEF依赖于关键点的随机方向来获取更好的性能。图5所示旋转BRIEF在有效数据和无效数据的距离上的效果。对旋转BRIEF,外轮廓向左平移,与内轮廓有重叠。
为了使steered BRIEF方差增大,减少二值比较结果的相关性,我们开发了一种方法来选择一组二值比较结果。一种策略是使用主因分析法或减少其他维度的方法,从二值比较结果的数据组开始,选出256个有大方差,不关联(通过大量数据训练)的新特征。既然新特征是由大量二值结果组成,可能计算效率要比steered BRIEF要低。那么,我们就搜索所有可能的二值结果寻找那些大方差(均值接近0.5),且不相关的二值。
具体方法:首先从PASCAL 2006图像数据集里提取300K个关键点建立训练数据。通过画31x31的像素区块,枚举所有可能的二值结果。每个测试结果都是一对5x5的图像区块子窗口。如果图像区块的宽度wp=31,测试子窗口的宽度wt=5,那么就有N=(wp-wt)2个可能的子窗口。我们从里面再作配对,那么我们就有 二值结果。我们去掉那些重叠的结果,那么我们就有M=205590可能的结果。
具体算法:
在均值为0.5左右的一组不相关的测试结果中进行贪婪搜索。结果称为rBRIEF。rBRIEF在方差和相关性特性上有明显增强,如图4所示。PCA的特征值也比较高,但它们下降没那么快。如图6所示,算法产生的高方差二值结果。左图里未经训练的比较结果里有很明显的垂直趋向,高度相关;经过训练的结果表现出更好的多样性和更低相关性。
我们评估ORB,将oFAST和rBRIEF融合,使用两个数据集:一组图像经过平面旋转和高斯去噪声,另一组是不同视角下真实世界的纹理化平面图像。对每幅图像,我们都计算oFAST关键点和rBRIEF特征,每幅图像500个关键点。对每幅图像(融合旋转或真实世界视角转换),我们执行暴力搜索查找最好匹配。根据正确匹配的百分比提供测试结果,而不是旋转角度。
图7 是融合高斯噪声的数据集测试结果。标准BRIEF算法在10度左右急剧下降。SIFT性能优于SURF,由于Haar小波成分在45度角的地方有很大不同。ORB性能最好,优于70%有效数据模型。
与SIFT不同,ORB不受高斯噪声影响。如果对比有效数据和噪声,SIFT在噪声增加5的情况下有10%的缓慢下降。如图8所示,ORB也有所下降,但下降幅度更小。
为了测试ORB对实时图像的性能,我们用了两组图像数据集,一组是室内图像有高度纹理化的杂志放在桌子上,如图9所示,另一组是室外环境。数据集有尺度、视角、光线变化。
测试之后,我们得到了ORB和SIFT,SURF的性能对比。测试方法如下:
inlier % | N points | |
Magazines | ||
ORB | 36.180 | 548.50 |
SURF | 38.305 | 513.55 |
SIFT | 34.010 | 584.15 |
Boat | ||
ORB | 45.8 | 789 |
SURF | 28.6 | 795 |
SIFT | 30.2 | 714 |
在室外环境下,ORB性能优于SIFT和SURF。室内环境,性能一样;论文6提到SIFT斑点侦测的关键点在涂鸦类型的图像上性能更好。
大量图像数据集下,ORB最近邻搜索匹配性能优于SIFT/SURF。ORB的评价标准之一是方差,它使得邻近搜索更有效率。
rBRIEF是二值模式,所以我们选择局部敏感哈希方法作为最近邻快速查找。在局部敏感哈希方法中,点被存储到几个哈希表里,被哈希到不同桶里。给定一个要检索的特征描述子,提取匹配的桶,用暴力匹配的方法匹配里面的元素。这个方法的作用在于将一个在超大集合内查找相邻元素的问题转化为了在一个很小的集合内查找相邻元素的问题,在给定哈希表的情况下查找成功概率比较高。
对于二值特征,哈希表示超大集合的一个子集:哈希表对应的桶包含了相同的特征描述子,它们在同一个子集里。它们的距离用汉明距离计算。
我们增强了多点探测局部敏感哈希方法,来增强传统局部敏感哈希方法,哈希映射变换后,原始空间中相邻的数据落入相同的桶内,那么在该数据集合中进行近邻查找就变得容易了,我们查找特征描述子落入的相邻的桶。然而,这可能需要确认更多的匹配,需要的表的数量少一些,更长的子集,因此可以用小一点的桶。
rBRIEF增强了局部敏感哈希方法的速度,它将哈希表映射的桶分得更平均:二值结果的关联性更小,哈希方法能够更好地划分数据。如图10所示,与steered BRIEF和BRIEF相比,哈希桶平均更小。
我们比较了具有kd树的rBRIEF LSH和采用FLANN的SIFT特征描述子的性能。我们基于PASCAL 2009数据集训练了不同的特征描述子,测试了仿射变换后的图像。
我们的多点探测局部敏感哈希方法采用二值数据加速了对哈希查找表的键值搜索。它也可以用来计算两个特征描述子的汉明距离。
图11对比了SIFT kd树(SURF是一样的)和rBRIEF LSH的速度和精度。图像数据库里面超过50个特征描述子的时候就会有一个成功的匹配图像。我们发现LSH比kd树快,主要是由于距离计算上的简化和加快。LSH对精度的调整也有弹性,可以通过特征词袋方法来获得,如论文21,27。我们也发现steered BRIEF由于不平均的哈希桶速度更慢。
ORB的速度在标准CPU上的计算效率更高。ORB采用oFAST特征侦测和rBRIEF特征描述,它们在5个图像尺度上分别计算,尺度因子是 。我们采用局部差值方法10去1。
ORB系统运算时间划分如下表所示,典型的图像帧的分辨率是640x480。代码在单线程Intel i7 2.8GHz处理器上处理。
ORB计算5个尺度下的2686张图像,42秒内侦测计算了超过2x106个特征点。相同尺度的1000个特征点的对比测试如下:
ORB比SURF快一个数量级,比SIFT快两个数量级。
rBRIEF物体识别的方法:先侦测oFAST特征和rBRIEF特征描述子,将它们与数据库匹配,然后执行PROSAC和EPnP算法得到一个位姿估计。
通过当前帧与之前的图像帧匹配实现手机上的追踪。关键帧里的特征描述子,包含平面物体表面纹理。ORB处理新进的图像,通过暴力搜索匹配特征描述子。通过PROSAC适配单映射H。
实时的手机图像特征追踪在比较小的分辨率上运行(比如120x160),特征点非常少,如论文30所示。ORB可以以7Hz帧率640x480分辨率运行在1GHz ARM处理器512MB RAM系统上。在Andriod系统上移植OpenCV。下面是每个图像400个特征点的对比测试:
我们通过OpenCV 2.3实现了ORB。ORB具有尺度不变特性。
你的鼓励是我写作的动力,欢迎光临,谢谢打赏。:)
[1] M. Aly, P. Welinder, M. Munich, and P. Perona. Scaling object recognition: Benchmark of current state of the art techniques. In First IEEE Workshop on Emergent Issues in Large Amounts of Visual Data (WS-LAVD), IEEE International
Conference on Computer Vision (ICCV), September 2009. 6
[2] H. Bay, T. Tuytelaars, and L. Van Gool. Surf: Speeded up robust features. In European Conference on Computer Vision,May 2006. 1, 2
[3] M. Brown, S. Winder, and R. Szeliski. Multi-image matching using multi-scale oriented patches. In Computer Vision and Pattern Recognition, pages 510–517, 2005. 2
[4] M. Calonder, V. Lepetit, and P. Fua. Keypoint signatures for fast learning and recognition. In European Conference on Computer Vision, 2008. 2
[5] M. Calonder, V. Lepetit, K. Konolige, P. Mihelich, and P. Fua. High-speed keypoint description and matching using dense signatures. In Under review, 2009. 2
[6] M. Calonder, V. Lepetit, C. Strecha, and P. Fua. Brief: Binary robust independent elementary features. In In European Conference on Computer Vision, 2010. 1, 2, 3, 5
[7] O. Chum and J. Matas. Matching with PROSAC - progressive sample consensus. In C. Schmid, S. Soatto, and C. Tomasi, editors, Proc. of Conference on Computer Vision and Pattern Recognition (CVPR), volume 1, pages 220–226,Los Alamitos, USA, June 2005. IEEE Computer Society. 7
[8] M. Everingham. The PASCAL Visual Object Classes Challenge 2006 (VOC2006) Results. http://pascallin.ecs.soton.ac.uk/challenges/VOC/databases.html. 4
[9] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes Challenge 2009 (VOC2009) Results.http://www.pascalnetwork.org/challenges/VOC/voc2009/workshop/index.html.6, 7
[10] A. Gionis, P. Indyk, and R. Motwani. Similarity search in high dimensions via hashing. In M. P. Atkinson, M. E. Orlowska,P. Valduriez, S. B. Zdonik, andM. L. Brodie, editors,VLDB’99, Proceedings of 25th International Conference onVery Large Data Bases, September 7-10, 1999, Edinburgh,Scotland, UK, pages 518–529. Morgan Kaufmann, 1999. 6
[11] C. Harris and M. Stephens. A combined corner and edge detector. In Alvey Vision Conference, pages 147–151, 1988. 2
[12] Y. Ke and R. Sukthankar. Pca-sift: A more distinctive representation for local image descriptors. In Computer Vision and Pattern Recognition, pages 506–513, 2004. 2
[13] G. Klein and D. Murray. Parallel tracking and mapping for small AR workspaces. In Proc. Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR’07), Nara, Japan, November 2007. 1
[14] G. Klein and D. Murray. Improving the agility of keyframebased SLAM. In European Conference on Computer Vision,2008. 2
[15] G. Klein and D. Murray. Parallel tracking and mapping on a camera phone. In Proc. Eigth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR’09),Orlando, October 2009. 7
[16] V. Lepetit, F.Moreno-Noguer, and P. Fua. EPnP: An accurate O(n) solution to the pnp problem. Int. J. Comput. Vision, 81:155–166, February 2009. 7
[17] D. G. Lowe. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision,60(2):91–110, 2004. 1, 2
[18] Q. Lv, W. Josephson, Z. Wang, M. Charikar, and K. Li. Multi-probe LSH: efficient indexing for high-dimensional similarity search. In Proceedings of the 33rd international conference on Very large data bases, VLDB ’07, pages 950–961. VLDB Endowment, 2007. 6
[19] M. Martinez, A. Collet, and S. S. Srinivasa. MOPED: A Scalable and low Latency Object Recognition and Pose Estimation System. In IEEE International Conference on Robotics and Automation. IEEE, 2010. 7
[20] M. Muja and D. G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. VISAPP, 2009. 6
[21] D. Nist´er and H. Stew´enius. Scalable recognition with a vocabulary tree. In CVPR, 2006. 2, 6
[22] P. L. Rosin. Measuring corner properties. Computer Vision and Image Understanding, 73(2):291 – 307, 1999. 2
[23] E. Rosten and T. Drummond. Machine learning for highspeed corner detection. In European Conference on Computer Vision, volume 1, 2006. 1
[24] E. Rosten, R. Porter, and T. Drummond. Faster and better:A machine learning approach to corner detection. IEEE Trans. Pattern Analysis and Machine Intelligence, 32:105–119, 2010. 1
[25] S. Se, D. Lowe, and J. Little. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks.International Journal of Robotic Research, 21:735–758, August 2002. 1
[26] S. N. Sinha, J. michael Frahm, M. Pollefeys, and Y. Genc.Gpu-based video feature tracking and matching. Technical report, In Workshop on Edge Computing Using New Commodity Architectures, 2006. 1
[27] J. Sivic and A. Zisserman. Video google: A text retrieval approach to object matching in videos. International Conference on Computer Vision, page 1470, 2003. 2, 6
[28] N. Snavely, S. M. Seitz, and R. Szeliski. Skeletal sets for efficient structure from motion. In Proc. Computer Vision and Pattern Recognition, 2008. 1
[29] G.Wang, Y. Zhang, and L. Fei-Fei. Using dependent regions for object categorization in a generative framework, 2006. 6
[30] A. Weimert, X. Tan, and X. Yang. Natural feature detection on mobile phones with 3D FAST. Int. J. of Virtual Reality, 9:29–34, 2010.
计算机视觉目标检测的框架与过程 blog.csdn.net/zouxy09/article/details/7928771
学习OpenCV——ORB & BRIEF(特征点篇)&Location blog.csdn.net/yangtrees/article/details/7533988
学习OpenCV——Surf(特征点篇)&flann blog.csdn.net/yangtrees/article/details/7482960
structure from motion blog.csdn.net/sway_2012/article/details/8036863
基于稀疏矩阵的k近邻(KNN)实现 blog.csdn.net/zouxy09/article/details/42297625
对论文Learning 3-D Scene Structure from a Single Still Image的理解 用单张2D图像重构3D场景 blog.csdn.net/zouxy09/article/details/8083553
Bundler: Structure from Motion (SfM) for Unordered Image Collections www.cs.cornell.edu/~snavely/bundler/
Fast Approximate Nearest Neighbor Search
http://opencv.itseez.com/2.4/modules/flann/doc/flann_fast_approximate_nearest_neighbor_search.html?highlight=flann#fast-approximate-nearest-neighbor-search
Harris角点检测http://www.cnblogs.com/doucontorl/archive/2011/01/02/1924157.html
Harris角点 www.cnblogs.com/ronny/p/4009425.html?utm_source=tuicool&utm_medium=referral
Opencv学习笔记(五)Harris角点检测 blog.csdn.net/crzy_sparrow/article/details/7391511
Photo Tourism: Exploring Photo Collections in 3D phototour.cs.washington.edu/Photo_Tourism.pdf
Modeling the World from Internet Photo Collections phototour.cs.washington.edu/ModelingTheWorld_ijcv07.pdf
理解矩阵 blog.csdn.net/zouxy09/article/details/8004724
数学之美番外篇:平凡而又神奇的贝叶斯方法 blog.csdn.net/zouxy09/article/details/8005109
计算机视觉的一些测试数据集和源码站点 blog.csdn.net/zouxy09/article/details/8768561
计算机视觉、机器学习相关领域论文和源代码大集合--持续更新…… blog.csdn.net/zouxy09/article/details/8550952
图像处理和计算机视觉中的经典论文 blog.csdn.net/zouxy09/article/details/8233198
计算机视觉领域的一些牛人博客,研究机构等的网站链接 blog.csdn.net/zouxy09/article/details/8233094