【论文阅读】CVPR2022: Learning from all vehicles

Column: March 23, 2022 1:08 PM
Last edited time: March 23, 2022 11:13 PM
Sensor/组织: 现leaderboard第一名,RC上总分94分 前无古人后无来者
Status: Reading
Summary: IL; 输出 中间层 map再去学
Type: CVPR
Year: 2022

  • 参考与前言

    代码地址:https://github.com/dotchen/LAV

    论文地址:

    Learning from All Vehicles

碎碎念: 第一眼看上去真的好像特斯拉AI day介绍的方案,提取相关照片,特斯拉AI day记录后面发吧 b站有中文字幕版

1. Motivation

来源于 carla leaderboard 自动驾驶排行榜,主要任务:就是通过得到的传感器信息来操控车辆的运行,可 端到端学习 也可以 传统方案

问题场景

现实生活中,可能大家开车10000个小时 都不会遇到一次事故,但是我们一定见到过事故现场,由此启发:learning-based 也可以从log中的其他车辆行为学习到经验 (故事能力 max)

学习其他车辆的轨迹(也可以说是预测其他车辆轨迹)有助于我们自车的sample efficiency 而且也可以帮助我们see more interesting scenarios,同时也可以帮助我们避免碰撞

但是问题是:对于其他车辆来说 是不像本身一样有所有传感器数据的,对于我们来说是一种 partial observation 所以需要一种 中间的表达态 来表示周围信息以代替传感器数据,然后所有可观测的车输出这样的数据 到网络中

Contribution

文章里没有总结contribution… 以下为简述方法

LAV 就是用来解决上述问题的,通过对perception and motion的部分观测 设计一个能用于识别、预测和规划的整体框架。(类似于特斯拉AI day介绍的:先进行解耦 multi-task,然后合起来 输出中间的vector map,然后只把vector map输入到规划中去)

主要部分类似于 lbc 里 privileged distillation approach 来解耦 perception 和 action 两个部分,也就是先做感知的模块然后再action

  1. 先用 3D detection 和 分割任务学习出 感知模块,输出a viewpoint invariant representation

    在这个模块中 并不区分场景中自车和其他车(应该是指viewpoint上有自车信息)

  2. 与前一步同时进行的还有motion planner,不同于之前 action的输出,这里仅输出future waypoints 来表示motion plan,整个planner预测周围所有车的轨迹和他们的high-level commands(label形式 后面有详细介绍)

  3. 最后把他们合起来成joint framework 然后用privileged distillation来提取出

整个网络最后输出的是一层蒸馏后的用perception module对所有车进行预测输出view point invariant vsion features,然后给到motion prediction module进行轨迹输出

2. Method

整个训练完成后,方法步骤是三层:

  1. perception 将 sensor data 转为 map-view feature
  2. 使用perception输出的features,对所有车执行motion planner,输出轨迹和high-level command
  3. 使用两个PID对自车输出的轨迹进行跟随

2.1 框架

【论文阅读】CVPR2022: Learning from all vehicles_第1张图片

2.2 Perception Model

使用三个相机 合起来,和wor里的操作是一样的,为了获得更广的视角(但是这样红绿灯也会更小不好识别)

照片示意图(右侧为Telephoto 在2.3 c会用到)

I t = { I t 1 , I t 2 , I t 3 } \mathbf{I}_{t}=\left\{I_{t}^{1}, I_{t}^{2}, I_{t}^{3}\right\} It={It1,It2,It3} 分别代表三个相机, L t L_t Lt 代表激光雷达点云,两个的combine方法来自 point-painting [46] 将 RGB 和 a light-weight center-point [47] with pointpillars[27] 处理后的点云进行融合

经过处理后这层框架输出的是map-view feature representation f ∈ R W × H × C f \in \mathbb{R}^{W \times H \times C} fRW×H×C 其中 W宽,H高,C为通道数

网络框架细节

使用pointpillars with pointpainting进行多模态 3D perception backbone P B P_B PB

  • 使用ERFNet 对每个相机输出的图片进行计算semantic segmentation scores的计算,分割的label包含:背景、车辆、road 道路、lane markings和行人

  • pointpillars 方面,先用FC-32-32 with batch norm作为point net层,然后对激光雷达点云在: x ∈ [ − 10 m , 70 m ] , y ∈ [ − 40 m , 40 m ] x \in [-10m,70m],y\in [-40m,40m] x[10m,70m],y[40m,40m] 进行create pillars,每个pillars表示 0.25 m × 0.25 m 0.25m \times 0.25m 0.25m×0.25m的空间范围,使用默认的2D CNN multi-scale features去获取spatical features ϕ t ∈ R 192 × 160 × 160 \phi_{t} \in \mathbb{R}^{192 \times 160 \times 160} ϕtR192×160×160 with 0.5x resolution of the original pillars

    其中和pointpillars本身直接使用超参数build dense pillars,本文选择sparesly represent,使用一个spare PointNet去梳理sparese pillar features

  • 对于融合图片分割和点云检测输出BEV feature则是使用简单版的one-stage centerpoint。预测两个centerness maps,一个为车,一个为行人

  • 具体这里的细节估计在后面看代码环节补上把

  • 温馨链接:

    [27] pointpillars很不错的一篇 工业界也常用的点云检测框架,博客园不错的解释博客:

    点云3d检测模型pointpillar

2.3 plan motion

首先需要注意的是只有ego car有明确的GNSS的目标点 g ∈ R 2 g\in \mathbb R^2 gR2,其他npc没有目标点的,其次 high level command也是只有ego car有,所以其他车辆预测时是需要单独infer的

整个这个motion planner 内部也有两步:

a. 标准的RNN M ( f ^ , c ) M(\hat f,c) M(f^,c)

预测未来 n = 10 n=10 n=10 的路径点 waypoints,使用的是:high level commnd c c c (包含:左转,右转,直行,跟随,换左道,换右道)

根据前情提要,我们就得分为两个部分loss,然后训练这个网络时 是两部分loss相加:一个ego 有真值的 c ^ \hat c c^,一个其他npc 需要infer的 c c c

L M e g o = E f ^ , y , c ^ [ ∥ y − M ( f ^ , c ^ ) ∥ 1 ] (1) \mathcal{L}_{M}^{e g o}=\mathrm{E}_{\hat{f}, y, \hat{c}}\left[\|y-M(\hat{f}, \hat{c})\|_{1}\right]\tag{1} LMego=Ef^,y,c^[yM(f^,c^)1](1)

L M other  = E f ^ , y [ min ⁡ c ∥ y − M ( f ^ , c ) ∥ 1 ] \mathcal{L}_{M}^{\text {other }}=\mathrm{E}_{\hat{f}, y}\left[\min _{c}\|y-M(\hat{f}, c)\|_{1}\right] LMother =Ef^,y[cminyM(f^,c)1]

b. refine RNN M ′ ( f ^ , g , y ~ ) M'(\hat f, g, \tilde y) M(f^,g,y~)

在a输出后,使用a输出的 y ~ \tilde y y~ 作为输入,然后结合 map-view feature f ^ \hat f f^ 和 GNSS给出的goal 来为ego car输出相对目标点

L M refine  = E f ^ , y , y ~ , g ^ [ ∥ y ~ + M ′ ( f ^ , g ^ , y ~ ) − y ∥ 1 ] (3) \mathcal{L}_{M}^{\text {refine }}=\mathrm{E}_{\hat{f}, y, \tilde{y}, \hat{g}}\left[\left\|\tilde{y}+M^{\prime}(\hat{f}, \hat{g}, \tilde{y})-y\right\|_{1}\right] \tag{3} LMrefine =Ef^,y,y~,g^[y~+M(f^,g^,y~)y1](3)

这一部分的loss backpropagating 同样也会传回到perception backbone内,所以此时perception model也可以attend to the low-level details

网络框架细节

首先得到了ego car和其他车的detection,然后针对每辆车的位置和yaw角度,截取ROI 感兴趣的区域输入到一个CNN 对于车辆 i i i 输出一个embedding z i z^i zi,这个 z i z^i zi 是在 M , M ′ M,M' M,M间共享的

  • M M M 对于每个High-level command 都使用了一个GRU,the GRU rolled out n次去输出连续路径点之间的offset
  • M ′ M' M 使用了两个种类的recursions和rollouts,针对waypoints的rollouts,针对refinement iterations的rollouts

这里对GRU输出相对位置有点像transfuser NEAT里的那样,看来是预测那边迁移task过来的

问题区:

  • 对于其他车辆的预测轨迹,因为这个是实时仿真,难道是时间错开吗?就比如收集到的数据 预测t=1的后10帧时,拿的是后面10帧的实际运行轨迹进行的预测?看文字的意思好像是,可能得瞅瞅数据集和训练代码

    we observe their future trajectory to obtain supervision for future waypoints y

  • 其他车辆的high command没看到是怎样推断出来的

    原文写的是:We instead allow the model to infer the high-level command directly and optimize the plan for the most fitting high-level command.

    然而… 咋fitting出来的呢 emmm 后面看代码把

c. controller

当输出了相对目标点,还需要进行一层控制,因为目标点并不能直接给车,CARLA内 车接受的是油门,方向盘和刹车指令。这里作者和其他的transfuser NEAT 之类的用的是一样的 两个PID 控制。有意思的是(和我 前几天和同学讨论的brake最好外加一个network只做brake响应 这样应该能降低事故率)没想到想一块了 简直了 hhhh

也就是虽然PID会根据motion plan的相对坐标输出油门、方向盘,但是这里多加了对刹车的neural network calssifier专门对交通灯和危险场景进行刹停

这个分类器的输入是前面的三个相机外加一个远距相机 类似于前面说面的照片 右边那张,也就说整体系统是四个相机,只是前面用了三个,这里用的四个

网络框架细节

网络使用的是Resnet18输出fixed sized embedding然后concatenate到一起 放入一个线性层去预测binary brake(也就是刹车还是不刹车 二值)

然后对于输出的轨迹 进行一层判断,如下图逻辑,如果该轨迹会导致碰撞就调整一下

【论文阅读】CVPR2022: Learning from all vehicles_第2张图片

总结

所以我们先用3D detection和分割任务学习了perception model,然后plan motion进行轨迹预测再往回传到perception进行loss,最后这两者输出map-view feature带motion plan预测的轨迹,然后用high-level command likelihodd thereshold 来检查是否碰撞

  • 这里的检查碰撞没看懂?是设了阈值吗?但是细节实现里并没有指出这点?TBD at code

3. 实验部分

这一部分 看下在线排行榜 RC方面达到了惊人的94分 真的是令人敬佩,做过这个任务的就知道 RC打到80分以上已经算是突破了,然后扣完分也有61分,甩现在的 March 23, 2022 第二名十分了,词穷只能再说一句 牛掰!

这里就贴一下表格,因为我做过这个任务… 所以基本不用看文字 我都知道这些指标是些啥 好坏与否hhh,主要就贴消融实验里的部分了

【论文阅读】CVPR2022: Learning from all vehicles_第3张图片
【论文阅读】CVPR2022: Learning from all vehicles_第4张图片

之所以开头说和特斯拉 AI day说的很像是因为下面这幅效果图 hhh 真的太像了,果然这个作者的效果图都超酷hhh WOR也是

【论文阅读】CVPR2022: Learning from all vehicles_第5张图片

4. Conclusion

没啥好conclusion了,一句话 牛掰,这个作者我着实佩服,按着每年一篇的速度(还基本上是一个人在做)引领 CARLA 这个自动驾驶任务的方向!【从lbc, wor 再到现在的lav】佩服!

就贴一下原文的讨论把,虽然我觉得这已经是到头了 真的是厉害

【论文阅读】CVPR2022: Learning from all vehicles_第6张图片

碎碎念

前段时间赶完论文后,又看了一遍WOR的代码和评估,当时和这个作者在github 交流了好久 发现我竟然没follow,随手一个follow 第二天看的时候发现啊,大佬回follow我了 这就像你偶像关注你一样 hhh 太奇妙了

另外 有意思的是,我做的这个任务的时候 到后面 我一直以为瓶颈在专家数据,LAV这篇丝毫没提这个,而… 代码也没po 他是如何收集数据的,比如transfuser, lbc 和mmfn 都会进行说明数据如果进行收集,不过从开出来的数据集400多G 再瞅瞅我的 100G hhh 知道了 差距,此点的相关issue


代码运行相关,好像代码没po全还有些小问题,

PS 相关包的下载可能会出现的问题,请通过以下命令

conda install pytorch-scatter -c pyg

记得下载 git-lfs


赠人点赞 手有余香 ;正向回馈 才能更好开放记录 hhh

你可能感兴趣的:(论文阅读,Self-Driving,无人驾驶,论文)