双目三维重建突然想保存的博客链接

推荐两个微信公众号:
计算机视觉life、CVer
所有期刊、会议文章下载链接均不贴出arxiv都有,只做标记
这里有一个大家必看的PPT:Mattoccia - 2012 - Stereo Vision Algorithms and Applications University of Bologna;很多人都有分享。如果没有C币可以直接从我网盘拿去。
链接:https://pan.baidu.com/s/1XQqvuqp9xYzz_grlrWOWuw
提取码:m4gj

这些博客只是整理一下,没有得到授权,笔记,侵删。

必读0
必读1

opencv的视差转深度图计算方法-官方文档
来自知乎的:立体视觉书籍推荐&立体匹配十大概念综述—立体匹配算法介绍
SSD:OpenCV的匹配,默认就是像素差的平方和再开根号,官方doc的Norn_L2可以去看看。(这两个还是不一样的,只是这两种方式都有共性,就是距离函数嘛。。实测距离函数,欧氏距离或者SSD会好一些,其他的看情况,更改距离判断函数提升的效果远没有优化方案优化特征提取效果好,当然,距离函数也要选对,不是说它完全不重要(括号里的是我自己多次尝试得出的经验,一家之言谨慎参考))

来自知乎的:基于深度学习的双目匹配和视差估计,写文章可以放到综述,我真机智。

来自知乎的:关于双目摄像头深度测量精度分析,简单说就是越远精度越差,毕竟像素密度有采样误差。这个可以不看,需要实验精度分析时候可以参考下。
来自知乎的:基于双目视觉的自动驾驶技术,这段有想法:

这是一个利用路上标志线(斑马线)的标定方法:已知斑马线的平行线模式,检测斑马线并提取角点,计算斑马线模式和路面实现匹配的单映性变换(Homography)参数,得到标定参数。

我:运动中的图像采集场景需要考虑运动模糊,而且,相机多数都是采用行扫描的方式,在运动中对两侧场景可能会存在运动变形,工业相机有自己的相机CMOS的cache,没有cache的相机需要考虑图像采集效果,两侧场景可能用列扫描的方式更好些。

来自知乎的一个作者的系列文章,内容一般,但是有比较系统的讲解,后两个介绍了别人的论文,质量可以,该有的都有
StereoVision–立体视觉(1)
StereoVision–立体视觉(2)
StereoVision–立体视觉(3)
StereoVision–立体视觉(4)
《Cross Scale Cost Aggregation for Stereo Matching》,这里简称为CSCA,这是一篇2014年的CVPR的文章,Github链接
StereoVision–立体视觉(5)
《A Non-Local Cost Aggregation Method for Stereo Matching》Key Word:Minimum spanning tree:MST 最小生成树


BM,SGBM,GC,SAD:代价计算与代价聚合不一样而已。OpenCV也有实现。
另一个对上面的介绍
真实场景的双目立体匹配获取深度图详解,OpenCV极限校正、SGBM实现,讲了具体实现,没有原理,只是OpenCV的API调用。实验可以参考。

CVPR2019:FlowNet3D: Learning Scene Flow in 3D Point Clouds,从三维点云估计场景流。

立体匹配就4个步骤:匹配代价计算,代价聚合,计算视差,视差精化。,描述了几个定义,意思大家都懂,就是名词解释有时候对不上。
A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation.
SceneFlow数据集官方给出的一些参考


迷雾forest 大佬的博客

  • Stereo Matching文献笔记之(一):《Cross-Scale Cost Aggregation for Stereo Matching》读后感~
  • Stereo Matching文献笔记之(二):《A Non-Local Cost Aggregation Method for Stereo Matching》读后感~
  • 这里穿插另一个对MST方法的讲解:基于MST的立体匹配及相关改进(A Non-Local Cost Aggregation Method for Stereo Matching)
  • Stereo Matching文献笔记之(三):《Segment-Tree based Cost Aggregation for Stereo Matching》读后感~
    这里有必要插一句我自己的想法:NLCA系列(non-local cost aggregation)的算法才有价值,在弱纹理、周期性纹理区域,局部的算法没有任何办法。

自己觉得有必要走的路线:
GcNet,开源:
ICCV-2017 论文阅读笔记《End-to-End Learning of Geometry and Context for Deep Stereo Regression》
CVPR-2017 Semantic Segmentation–Pyramid Scene Parsing Network(PSPNet)论文解读
pspmet在多尺度提取空间特征有很大作用,PSMNet就是参考了这里的特征提取部分。
除了middlebury提供的库外,还可以用这种方式读写pfm文件,但是我更倾向于用Github的方法

你可能感兴趣的:(学习笔记,深度学习三维重建,立体匹配)