论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification

车道线检测是自动驾驶中的基础任务之一,我们今天来看一篇来自浙大的TPAMI 2022的文章!

文章看下来,可以理解为是专门为车道线任务设计的语义分割网络

文章地址: https://arxiv.org/abs/2206.07389

代码也开源了: GitHub - cfzd/Ultra-Fast-Lane-Detection-v2: Ultra Fast Deep Lane Detection With Hybrid Anchor Driven Ordinal Classification (TPAMI 2022)

一、目的,贡献

关于ordinal classification: https://en.wikipedia.org/wiki/Ordinal_regression

1. 提出了一种基于row或者column anchor的车道线检测方法;

2. 用类别表示车道线的坐标, 并特别用ordinal classification获得类别

3.  快,300FPS

二、精度

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第1张图片

330fps非常快, LaneATT也很不错!改天LaneATT也好好读一下;

三、实现

3.1 Lane Representation with Anchors

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第2张图片

分配到row anchor 或者 col anchor的线提前选好,分配到哪种anchor看这种类别的线和哪种anchor的夹角大;

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第3张图片

3.2 Anchor-driven Network Design

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第4张图片

 论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第5张图片

 这里没有啥花头, 其实anchor多了也减少不了太多计算量;

flatten再接MLP不就又回到了MNIST手写字符识别用过的传统技能了么。。。 

3.3 Ordinal Classification Losses

每个channel是一条线, 单个channel的某行的GT上只有一个pixel是1(交点), 因此可以用CE来学这个onehot的distribution, 再加上expectation loss和existence loss来吧distribution的形状搞搞好

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第6张图片

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第7张图片

3.4 Network Inference

以row anchor为例(y固定了), 每一行直接由expectation求出x的(亚像素级别)坐标:

论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification_第8张图片

3.5 Analysis and Discussion

为车道线专门设计的网络, 用anchor即可,不用像素级别分类(语义分割), 计算量小当然快。

你可能感兴趣的:(感知,论文阅读,人工智能)