常见立体匹配论文列表

英文 中文题目 摘要
A Non-Local Cost Aggregation Method for Stereo MatchingNCA-Net 一种用于立体匹配NonLocal代价聚集方法NCA-Net) 给定图像转换的图,根据最小生成树的原则,计算每个像素位置的(不同视差)的全局cost。选择最小cost所对应的视差为当前像素的视差。
ActiveStereoNet - End-to-End Self-Supervised Learning for Active Stereo Systems ActiveStereoNet——端到端自监督学习主动立体系统 基于主动立体相机系统(不是普通的双目相机)的视差估计
Cascade Residual Learning - A Two-stage Convolutional Neural Network for Stereo MatchingCRL 级联残差学习——用于立体匹配两级卷积神经网络CRL 代码:https://github.com/Artifineuro/crl
两个阶段:初始估计refine
两个阶段的网络结构类似于
DispNetC(参考文献40),区别在于是全分辨率输出
refine阶段采用的是残差r的更新(网络结构见图1
EdgeStereo - A Context Integrated Residual Pyramid Network for Stereo MatchingEdgeStereo-V2 EdgeStereo——用于立体匹配上下文集成残差金字塔网络EdgeStereo-V2 网络结构如图2
1.
视差网:两个金字塔,一个获取多尺度context信息,另一个利用残差信息实现refine
2. HED边缘检测网:利用边缘信息对视差进行正则化
Hierarchical Discrete Distribution Decomposition for Match Density EstimationHD^3-Stereo 用于匹配密度估计分层离散分布分解HD^3-Stereo 目的是不仅估计视差,而且估计(每个点)视差的分布(不确定性)。
采用多尺度、refine等思想,集成了DLA、HAD等已有的技术。
结构图如图2
Learning Depth with Convolutional Spatial Propagation NetworkCSPN 卷积空间传播网络学习深度 提出卷积空间传播(CSPN),省去了传统SPN连续4个方向的处理,从而一次完成。并将其推广到3D,从而应用于各种立体视觉应用,包括立体匹配。这里是用于类似于CRF的后处理。PSMNet的改进
Learning for Disparity Estimation through Feature ConstancyiResNet 基于特征一致性视差估计学习iResNet 网络结构见图1,共分三个部分。算法强调特征一致性
代码:https://github.com/leonzfa/iResNet
Pyramid Stereo Matching NetworkPSM Net 金字塔立体匹配网 SPP(空间金字塔池化)+ 3D卷积。见图1
Stereo Matching by Training a Convolutional Neural Network to Compare Image PatchesMC-CNN 训练卷积神经网络比较图像块立体匹配MC-CNN 提出用以计算cost volumn的CNN网,而后续的处理仍然采用传统的方法
End-to-End Learning of Geometry and Context for Deep Stereo RegressionGC Net 几何上下文的端到端学习实现深度立体回归GC-Net 网络结构如图1,计算一元特征,然后Cost Volumn,最后3D卷积
StereoNet - Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction StereoNet——实时边缘感知深度预测指导的分层精化算法 网络结构如图1,实时算法(60fp),特征抽取阶段下采样,3D卷积,估计视差阶段,采用refine的思想
CVPR2019
GA-Net: Guided Aggregation Net for End-To-End Stereo Matching GA-Net:端到端立体匹配引导聚合网 提出两种cost aggregation方法:semi-globallocal,分别对应无纹理区和细结构/边缘区
Guided Stereo Matching 引导立体匹配 给定稀疏(正确)的深度值(可以容易地转化为对应点的视差值),利用这部分信息作为引导,辅助实现立体视觉(公式1-4,通过图2b,c可以看出,其对性能的提升也是有明显的好处的)
Group-Wise Correlation Stereo Network 群相关立体网络 PSMNet基础上的改进,主要体现在以下几个方面:
1.
costVolumn采用concatenation(公式2)和correlation(公式1)相结合的方式,特别是correlation,采用通道分组的方式(公式3),以获取更多的信息,从而使aggregationNet简化成为可能。
2.
aggregation Net 进行了改进(图2),提升了速度
Multi-Level Context Ultra-Aggregation for Stereo Matching 基于多级上下文超聚合立体匹配 基于PSMNet的改进,主要改动在前端matching cost calculation部分,如图3添加了一个子分支,从而定义了所谓“interesting level组合”(图中彩色实线),而模块内部采用的是密集连接,文中称为高阶RCNN
另一部分改进在
输出部分,见图2引入了残差模块来精化
Hierarchical Deep Stereo Matching on High-Resolution Images 高分辨率图像分层深度立体匹配 主要是利用空间金字塔(SPP)抽取不同(4个)尺度的特征,并由此得到多尺度的costVolumn,低尺度特征不仅独立估计视差,同时辅助高尺度特征计算高尺度costVolumn(图2,3),即所谓“层级
文中同时还给出
数据增广方法和新的训练数据集
StereoDRNet: Dilated Residual StereoNet StereoDRNet:扩张的残差立体网 流程框架见图2,文中在特征抽取、CostFiltering、回归、精化等几个子模块都有改进,主要有:
1. DR:
CostFiltering中使用扩张卷积残差
2. 特征抽取中使用Vortex池化
3. 精化阶段不仅考虑光度误差(公式4),同时考虑几何误差(公式5)
详细可见Contribution 中介绍
Real-Time Self-Adaptive Deep Stereo 实时自适应深度立体 MADNet在线自适应来解决domain shift问题(训练集为合成数据,而真实测试集为真实场景)。在实际使用中,每帧数据(对)不仅用来计算视差,同时用来在线更新网络权值,达到自适应的目的
LAF-Net: Locally Adaptive Fusion Networks for Stereo Confidence Estimation LAF-Net:用于立体置信估计局部(L)自适应(A)融合(F)网络 置信图(Confidence map)用以衡量每个点的(估计后)视差的置信度(如图1),进而对不同置信度像素点的视差可以refine等后处理。
ICCV2019
DeepPruner: Learning Efficient Stereo Matching via Differentiable PatchMatch DeepPruner:通过可微Patch匹配实现有效的立体匹配学习 1. 利用RNN的结构描述PatchMatch
2. 利用可微的PatchMatch,缩小每个像素视差的搜索范围(传统的方法是所有视差可能性,而文中每个像素考虑的是部分视差,即Confidence Range,大约是全部视差范围的1/10)
Semantic Stereo Matching With Pyramid Cost Volumes 基于金字塔CostVolume语义立体匹配 1. 采用语义分割提升立体匹配
2. 采用
不同尺度的CostVolume
OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching OmniMVS:全方位立体匹配端到端学习 多视角的立体匹配
TAPA-MVS: Textureless-Aware PAtchMatch Multi-View Stereo TAPA-MVS:无纹理感知PatchMatch多视图立体 多视角的立体匹配
P-MVSNet: Learning Patch-Wise Matching Confidence Aggregation for Multi-View Stereo P-MVSNet:学习多视点立体视觉的逐块匹配置信聚集 多视角的立体匹配
AutoDispNet: Improving Disparity Estimation With AutoML AutoDispNet:用AutoML改进视差估计 网络结构搜索最优超参数搜索的方法

 

你可能感兴趣的:(深度学习,立体匹配)