摘要:LaneNet是一种端到端的车道线检测方法,包含 LanNet + H-Net 两个网络模型。
本文分享自华为云社区《【论文解读】LaneNet基于实体分割的端到端车道线检测》,作者:一颗小树x。
前言
这是一种端到端的车道线检测方法,包含LanNet+H-Net两个网络模型。
LanNet是一种多任务模型,它将实例分割任务拆解成“语义分割”和“对像素进行向量表示”,然后将两个分支的结果进行聚类,得到实例分割的结果。
H-Net是个小网络,负责预测变换矩阵H,使用转换矩阵H对同属一条车道线的所有像素点进行重新建模。即:学习给定输入图像的透视变换参数,该透视变换能够对坡度道路上的车道线进行良好地拟合。
论文地址:TowardsEnd-to-EndLaneDetection:anInstanceSegmentationApproach
开源数据集TuSimple:https://github.com/TuSimple/t...
开源代码:https://github.com/MaybeShewi...
一、LanNet
LanNet对输入图像进行实例分割,其中网络结构分为两个方向,一个是语义分割,另一个是对像素进行向量表示,最后将两个分支的结果进行聚类,得到实例分割的结果。LaneNet输出实例分割的结果,为每个车道线像素分配一个车道线ID。
1.1网络结构
分支1:语义分割,Segmentation,对像素进行二分类,判断像素属于车道线还是背景;
分支2:对像素进行向量,Embedding,对像素进行嵌入式表示,把图像特征表示为嵌入空间中,特征之间的关系映射在嵌入空间。
**
聚类,**基于Mean-Shift算法实现的,把将两个分支的结果进行聚类,得到实例分割的结果。
LaneNet是基于ENet的encoder-decoder模型,如下图所示,ENet由5个stage组成,其中stage2和stage3基本相同,stage1,2,3属于encoder,stage4,5属于decoder。
1.2语义分割
这部分是对像素进行二分类,判断像素属于车道线还是背景;并且高度不平衡,因此参考了ENet,损失函数使用的是标准的交叉熵损失函数。
设计语义分割模型时,为了处理遮挡问题,论文对被车辆遮挡的车道线和虚线进行了还原(估计);
Loss使用softmax_cross_entropy,为了解决样本分布不均衡的问题,使用了boundedinverseclassweight对loss进行加权:
其中,p为对应类别在总体样本中出现的概率,c是超参数。
Loss的设计参考了:论文ENet:ADeepNeuralNetworkArchitectureforReal-TimeSemanticSegmentation
1.3像素映射到嵌入空间
当分割识别得到车道后,为了知道哪些像素归这条车道,哪些归那条车道,需要训练一个车道instanceembedding分支网络。它能输出一个车道线像素点距离,归属同一车道的像素点距离近,反之远,基于这个策略,可聚类得到各条车道线。
为了区分车道线上的像素属于哪条车道,为每个像素初始化一个embedding向量,并且在设计loss时,使属同一条车道线的表示向量距离尽可能小,属不同车道线的表示向量距离尽可能大。
这部分的loss函数是由三部分组成:方差损失、距离损失、回归损失:
其中,C是车道线数量,Nc是属同一条车道线的像素点数量,μc是车道线的均值向量,xi是像素向量(pixelembedding)。
该loss函数源自于论文《SemanticInstanceSegmentationwithaDiscriminativelossfunction》
方差loss(Lvar):当像素向量(pixelembedding)xi与对应车道线均值向量μc的距离大于δv时,模型会进行更新,使得xi靠近μc;
距离loss(Ldist):当不同车道线均值向量μca和μcb之间的距离小于δd时,模型会进行更新,使得μca与μcb远离彼此;
方差loss(Lvar)使得像素向量向车道线的均值向量μc靠近,距离loss(Ldist)则会推动聚类中心远离彼此。
1.4聚类
embedding(像素映射到嵌入空间)已经为聚类提供好的特征向量了,利用这些特征向量我们可以利用任意聚类算法来完成实例分割的目标。
聚类是基于Mean-Shift算法实现的,把将两个分支的结果进行聚类,得到实例分割的结果。
首先使用meanshift聚类,使得簇中心沿着密度上升的方向移动,防止将离群点选入相同的簇中;之后对像素向量进行划分,直到将所有的车道线像素分配给对应的车道。
二、H-Net
LaneNet的输出是每条车道线的像素集合,还需要根据这些像素点回归出一条车道线。传统的做法是将图片投影到俯视图(鸟瞰图)中,然后使用2阶或者3阶多项式进行拟合。在这种方法中,变换矩阵H只被计算一次,所有的图片使用的是相同的变换矩阵,这会导致地平面(山地,丘陵)变化下的误差。
为了解决这个问题,论文训练了一个可以预测变换矩阵H的神经网络H-Net,网络的输入是图片,输出是变换矩阵H:
通过置0对转置矩阵进行约束,即水平线在变换下保持水平。(即坐标y的变换不受坐标x的影响)
由上式可以看出,转置矩阵H只有6个参数,因此H-Net的输出是一个6维的向量。H-Net由6层普通卷积网络和一层全连接网络构成,其网络结构如图所示:
三、模型效果
模型的精度高达96.4%,这个效果挺不错了。
2018年:在NVIDIA1080TI上测得的512X256图像的速度。总的来说,车道检测可以以52FPS的速度运行。检测速度比较快了,实时性较高。
2020年:添加实时分割模型BiseNetV2作为Lanenet主干,新模型在单幅图像推理过程中可以达到78fps。可以在此处找到基于BiseNetV2训练的新Lanenet模型。
四、开源代码
开源代码:https://github.com/MaybeShewi...
该开源代码是使用LaneNet深度神经网络模型,进行实时车道检测(非官方版)
该模型由编码器-解码器阶段、二进制语义分割阶段和使用判别损失函数进行实时车道检测任务的实例语义分割组成。
代码的运行环境:(以下是亲测的)
系统:ubuntu16.04(x64)
语言:Python3.6
深度框架:TensorFlow1.15.0(GPU版本)
其他依赖库:cv2、matplotlib、scikit_learn、numpy等。
实践过程:
1)创建conda环境
condacreate-nLineNetpython=3.6
2)进入刚才创建的环境
condaactivateLineNet
3)根据requirements.txt要求去安装相关的依赖库(这里我也阿里云加速安装了)
pip3install-rrequirements.txt-ihttps://mirrors.aliyun.com/pypi/simple/
看了一下这个的文件,发现有点问题。
tensoflow重复了:tensorflow_gpu==1.15.0、tensorflow==1.15.0,根据使用情况删除一个,我是准确使用GPU加速的,于是删掉tensorflow==1.15.0。
4)安装英伟达的cudatoolkit10.0版本
condainstallcudatoolkit=10.0
5)安装英伟达深度学习软件包7.6版本
condainstallcudnn=7.6.5
6)设置lanenet_model环境变量
exportPYTHONPATH="${PYTHONPATH}:your_path/lanenet-lane-detection/lanenet_model"
your_path是lanenet-lane-detection文件夹所在的绝对路径。
7)下载模型
链接:https://pan.baidu.com/s/1-av2...提取码:1024
一共4个文件,30M左右。
然后在lanenet-lane-detection目录下,新建一个子目录,名为model_weights,存在这个4个模型文件,待会用到。
8)测试模型
pythontools/test_lanenet.py--weights_pathmodel_weights/tusimple_lanenet.ckpt--image_path./data/tusimple_test_image/3.jpg
参考:
https://www.jianshu.com/p/c6d...
https://www.cnblogs.com/xuany...
LaneNet:TowardsEnd-to-EndLaneDetection:anInstanceSegmentationApproach
ENet:ADeepNeuralNetworkArchitectureforReal-TimeSemanticSegmentation
DiscriminativeLoss:SemanticInstanceSegmentationwithaDiscriminativelossfunction
论文地址:TowardsEnd-to-EndLaneDetection:anInstanceSegmentationApproach
开源代码:https://github.com/MaybeShewi...
本文只提供参考学习,谢谢。