经典论文 | 300FPS,超快结构感知的深度车道检测

来源丨CV技术指南


前言  现代的车道线检测的主要做法是将车道检测视为像素分割的问题,这样做很难解决具有挑战性的场景和速度问题。受到human perception的启发,即严重遮挡和极端光照条件下的车道识别主要基于背景信息和全局信息。

作者提出一种新颖、简单而有效的方式,旨在实现极快的速度和具有挑战性的场景。作者将车道检测的过程看作是一个使用全局特征的基于行的选择问题,在全局特征上使用一个大的接受域,这样可以处理具有挑战性的场景,在此基础上,作者还提出了一个结构损失模型来明确地建模车道的结构。

在两个车道检测基准数据集上的大量实验表明,该方法在速度和精度方面都达到了较好的性能。一个轻量级版本甚至可以达到300+帧每秒与相同的分辨率,比SOTA至少有4倍的速度。

经典论文 | 300FPS,超快结构感知的深度车道检测_第1张图片

论文:Ultra Fast Structure-aware Deep Lane Detection

论文:https://arxiv.org/abs/2004.11757

代码:https://github.com/cfzd/Ultra-Fast-Lane-Detection

背景


车道检测是计算机视觉研究的一个基础问题,在ADAS和自动驾驶等领域有着广泛的应用。对于车道检测,主流的方法有两种,即传统的图像处理方法和深度分割方法。车道检测算法作为自动驾驶的基本组成部分,被大量执行。这需要非常低的计算成本的车道检测。此外,目前的自动驾驶解决方案通常配备多个相机输入,这通常需要较低的计算成本。车道检测的另一个关键问题是具有严重遮挡和极端光照条件的挑战性场景,如下图所示。

经典论文 | 300FPS,超快结构感知的深度车道检测_第2张图片

虽然深度分割方法在车道检测领域占主导地位,但这种表示方式使得这些方法难以明确利用车道的刚性和平滑度等先验信息。基于上述动机,作者提出了一种新的以极快速度和解决无视觉线索问题为目标的车道检测公式。同时,在此基础上,作者提出了一种结构损失来明确利用车道的先验信息。

location selecting的示意图如下图所示

经典论文 | 300FPS,超快结构感知的深度车道检测_第3张图片

传统的方法通常是基于视觉信息来解决车道检测问题。这些方法的主要思想是通过HSI颜色模型和边缘提取算法等基于视觉线索进行图像处理。当视觉信息不够强时(遇到车道线被遮挡的时候),跟踪是另一种流行的后处理方案。除跟踪外,还采用了马尔可夫和条件随机场作为后处理方法。

随着机器学习的发展,提出了一些采用模板匹配、支持向量机等算法的方法。随着深度学习的发展,一些基于深度学习的神经网络的的方法在车道检测方面显示出了优势。

这些方法通常使用相同的公式,将问题视为语义分割任务。例如VPGNet提出了一种基于消失点引导的多任务网络,用于车道和道路标线检测。为了更有效地利用视觉信息,SCNN在分割模块中使用了一种特殊的卷积运算。它通过处理切片特征,将不同维度的信息逐个相加,类似于递归神经网络。

一些工作试图探索实时应用的轻量化方法。自注意蒸馏(SAD)就是其中之一。它采用了一种注意力蒸馏机制,将高、低层次的注意力分别视为教师和学生。

除了主流的分割方法外,研究者还提出了序列预测和聚类等方法。例如,采用长短期记忆(LSTM)网络来处理车道的长线结构。同样的原理,Fast-Draw预测每个车道点的车道方向,并依次绘制出来。此外,车道检测问题被看作是聚类的二值段问题。不同于以往工作的二维视角,有研究者提出了一种基于三维公式的车道检测方法来解决非平坦地面问题。

本文主要贡献


1、作者提出了一种新颖、简单而有效的车道检测公式,以达到极高的速度和解决无视觉线索问题。与深度分割方法相比,作者的方法是选择车道的位置,而不是分割每个像素,并且可以在不同的维度上工作,速度非常快。此外,作者的方法使用全局特征进行预测,比分割公式有更大的接受域。这样,没有视觉线索的问题也可以得到解决。

2、作者提出了一种明确利用车道先验信息的结构损失。这是在深通道检测方法中首次明确优化此类信息。

3、在具有挑战性的CULane数据集上,该方法在精度和速度方面都达到了最先进的性能。作者的方法的轻量版本甚至可以达到300+ FPS,具有相当的性能和相同的分辨率,这至少比之SOTA的方法快4倍。

方法


1、新的车道检测公式

高速和无视觉线索问题对车道检测非常重要。因此,如何有效地处理这些问题是良好性能的关键,下表显示了使用的一些符号。

经典论文 | 300FPS,超快结构感知的深度车道检测_第4张图片

用于选择车道位置的分类器,在第i车道,第j行锚定,则车道预测可表示为

adafbec4e19d0328b60b01bb58f92660.png

对应的优化方法为

经典论文 | 300FPS,超快结构感知的深度车道检测_第5张图片

其中LCE是交叉熵损失。作者使用一个额外的维度来表示车道,所以作者的公式由(w + 1)维组成,而不是w维分类。

作者的方法基于全局特征预测每个行锚上所有位置的概率分布。因此,可以根据概率分布来选择正确的位置(即根据车道线分布的全局信息,预测对于某一行锚中车道线的分布)。作者的方法分割的示意图如下图所示,可以看出,作者的提法比常用的分割方法要简单。

经典论文 | 300FPS,超快结构感知的深度车道检测_第6张图片

作者的公式以基于行的方式建立车道位置模型,这样有机会明确地建立不同行之间的关系。该方法可以弥补由低级像素化建模和高级车道长线结构造成的原有语义鸿沟。

2、车道结构损失

除了分类损失外,作者进一步提出了两个损失函数,用于建模车道点的位置关系。这样,结构信息的学习就可以得到鼓励。第一个是由车道是连续的这一事实推导出来的,也就是说,相邻行锚中的车道点应该彼此接近。在作者的公式中,车道的位置用分类向量表示。因此,连续性是通过约束分类向量在相邻行上的分布来实现的锚。这样,相似度损失函数为

经典论文 | 300FPS,超快结构感知的深度车道检测_第7张图片

另一个结构损失函数关注的是车道的形状。一般来说,大多数车道都是直的。即使是弯道,由于透视效果,大部分还是直线。在这篇工作中,作者使用二阶差分方程来约束车道的形状,对于直线的情况,它是零。为了考虑形状,需要计算每排锚上的车道位置。

93083f7378b92866d437be36bc5c7bd0.png

二阶差分约束可表示为

经典论文 | 300FPS,超快结构感知的深度车道检测_第8张图片

整体损失

b685a35452600154ec480da33c5236bd.png

3、特征聚合

作者提出了一种辅助的特征聚合方法,对全局上下文和局部特征进行聚合。提出了一种利用多尺度特征建模局部特征的辅助分割任务。作者使用交叉熵作为辅助分割损失。这样,所提方法的整体损失可以写成

116deb0ed048ae551682c0c4f3da4c7b.png

总体架构如下图所示

经典论文 | 300FPS,超快结构感知的深度车道检测_第9张图片

此方法只在训练阶段使用辅助分割任务,在测试阶段将其删除。这样,即使增加了额外的分割任务,也不会影响方法的运行速度。

实验


1、数据集

经典论文 | 300FPS,超快结构感知的深度车道检测_第10张图片

2、实验设置

作者在两个广泛使用的基准数据集上进行了实验:TuSimple车道线数据集和CULane车道线数据集。在高速公路照明条件稳定的情况下,采集了TuSimple数据集。CULane数据集包含城区正常、人群、曲线、眩光等9种不同场景。

评价指标:两个数据集的评价指标是不同的。对于TuSimple数据集,主要的评价指标是精确度,计算公式如下

3c90c3ce4385beed286d7bcce6c086b6.png

CULane的评价指标为F1-measure,计算公式如下

82b05d5d625681a0ee9f59982ba066e0.png

3、数据增强

由于车道的固有结构,基于分类的网络容易过拟合训练集,在验证集上表现较差。为了防止这种现象,提高泛化能力,采用了一种由旋转、垂直和水平位移组成的增强方法。另外,为了保持车道结构,将车道扩展到图像边界。增强效果如下图所示。

经典论文 | 300FPS,超快结构感知的深度车道检测_第11张图片

4、实验结果

在TuSimple测试集上与其他方法进行了比较,运行时间倍数的计算是基于最慢的SCNN方法。

经典论文 | 300FPS,超快结构感知的深度车道检测_第12张图片

在CULane测试集的结果

经典论文 | 300FPS,超快结构感知的深度车道检测_第13张图片

在Tusimple和CULane数据集上可视化的效果

经典论文 | 300FPS,超快结构感知的深度车道检测_第14张图片

结论


作者将车道检测的过程看作是一个使用全局特征的基于行的选择问题,在全局特征上使用一个大的接受域,这样可以处理具有挑战性的场景,在此基础上,作者还提出了一个结构损失模型来明确地建模车道的结构,在两个车道检测基准数据集上的大量实验表明,该方法在速度和精度方面都达到了较好的性能。一个轻量级版本甚至可以达到300+帧每秒与相同的分辨率,比SOTA至少有4倍的速度。

本文仅做学术分享,如有侵权,请联系删文。

干货下载与学习

后台回复:巴塞罗自治大学课件,即可下载国外大学沉淀数年3D Vison精品课件

后台回复:计算机视觉书籍,即可下载3D视觉领域经典书籍pdf

后台回复:3D视觉课程,即可学习3D视觉领域精品课程

计算机视觉工坊精品课程官网:3dcver.com

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

14.ROS2从入门到精通:理论与实战

15.国内首个3D缺陷检测教程:理论、源码与实战

重磅!计算机视觉工坊-学习交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有ORB-SLAM系列源码学习、3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、深度估计、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

经典论文 | 300FPS,超快结构感知的深度车道检测_第15张图片

▲长按加微信群或投稿

经典论文 | 300FPS,超快结构感知的深度车道检测_第16张图片

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、激光/视觉SLAM自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

经典论文 | 300FPS,超快结构感知的深度车道检测_第17张图片

 圈里有高质量教程资料、答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~ 

你可能感兴趣的:(算法,大数据,python,计算机视觉,机器学习)