Column: March 23, 2022 1:08 PM
Last edited time: March 23, 2022 11:13 PM
Sensor/组织: 现leaderboard第一名,RC上总分94分 前无古人后无来者
Status: Reading
Summary: IL; 输出 中间层 map再去学
Type: CVPR
Year: 2022
参考与前言
代码地址:https://github.com/dotchen/LAV
论文地址:
Learning from All Vehicles
碎碎念: 第一眼看上去真的好像特斯拉AI day介绍的方案,提取相关照片,特斯拉AI day记录后面发吧 b站有中文字幕版
来源于 carla leaderboard 自动驾驶排行榜,主要任务:就是通过得到的传感器信息来操控车辆的运行,可 端到端学习 也可以 传统方案
现实生活中,可能大家开车10000个小时 都不会遇到一次事故,但是我们一定见到过事故现场,由此启发:learning-based 也可以从log中的其他车辆行为学习到经验 (故事能力 max)
学习其他车辆的轨迹(也可以说是预测其他车辆轨迹)有助于我们自车的sample efficiency 而且也可以帮助我们see more interesting scenarios,同时也可以帮助我们避免碰撞
但是问题是:对于其他车辆来说 是不像本身一样有所有传感器数据的,对于我们来说是一种 partial observation 所以需要一种 中间的表达态 来表示周围信息以代替传感器数据,然后所有可观测的车输出这样的数据 到网络中
文章里没有总结contribution… 以下为简述方法
LAV 就是用来解决上述问题的,通过对perception and motion的部分观测 设计一个能用于识别、预测和规划的整体框架。(类似于特斯拉AI day介绍的:先进行解耦 multi-task,然后合起来 输出中间的vector map,然后只把vector map输入到规划中去)
主要部分类似于 lbc 里 privileged distillation approach 来解耦 perception 和 action 两个部分,也就是先做感知的模块然后再action
先用 3D detection 和 分割任务学习出 感知模块,输出a viewpoint invariant representation
在这个模块中 并不区分场景中自车和其他车(应该是指viewpoint上有自车信息)
与前一步同时进行的还有motion planner,不同于之前 action的输出,这里仅输出future waypoints 来表示motion plan,整个planner预测周围所有车的轨迹和他们的high-level commands(label形式 后面有详细介绍)
最后把他们合起来成joint framework 然后用privileged distillation来提取出
整个网络最后输出的是一层蒸馏后的用perception module对所有车进行预测输出view point invariant vsion features,然后给到motion prediction module进行轨迹输出
整个训练完成后,方法步骤是三层:
使用三个相机 合起来,和wor里的操作是一样的,为了获得更广的视角(但是这样红绿灯也会更小不好识别)
照片示意图(右侧为Telephoto 在2.3 c会用到)
I t = { I t 1 , I t 2 , I t 3 } \mathbf{I}_{t}=\left\{I_{t}^{1}, I_{t}^{2}, I_{t}^{3}\right\} It={It1,It2,It3} 分别代表三个相机, L t L_t Lt 代表激光雷达点云,两个的combine方法来自 point-painting [46] 将 RGB 和 a light-weight center-point [47] with pointpillars[27] 处理后的点云进行融合
经过处理后这层框架输出的是map-view feature representation f ∈ R W × H × C f \in \mathbb{R}^{W \times H \times C} f∈RW×H×C 其中 W宽,H高,C为通道数
网络框架细节
使用pointpillars with pointpainting进行多模态 3D perception backbone P B P_B PB
使用ERFNet 对每个相机输出的图片进行计算semantic segmentation scores的计算,分割的label包含:背景、车辆、road 道路、lane markings和行人
pointpillars 方面,先用FC-32-32 with batch norm作为point net层,然后对激光雷达点云在: x ∈ [ − 10 m , 70 m ] , y ∈ [ − 40 m , 40 m ] x \in [-10m,70m],y\in [-40m,40m] x∈[−10m,70m],y∈[−40m,40m] 进行create pillars,每个pillars表示 0.25 m × 0.25 m 0.25m \times 0.25m 0.25m×0.25m的空间范围,使用默认的2D CNN multi-scale features去获取spatical features ϕ t ∈ R 192 × 160 × 160 \phi_{t} \in \mathbb{R}^{192 \times 160 \times 160} ϕt∈R192×160×160 with 0.5x resolution of the original pillars
其中和pointpillars本身直接使用超参数build dense pillars,本文选择sparesly represent,使用一个spare PointNet去梳理sparese pillar features
对于融合图片分割和点云检测输出BEV feature则是使用简单版的one-stage centerpoint。预测两个centerness maps,一个为车,一个为行人
具体这里的细节估计在后面看代码环节补上把
温馨链接:
[27] pointpillars很不错的一篇 工业界也常用的点云检测框架,博客园不错的解释博客:
点云3d检测模型pointpillar
首先需要注意的是只有ego car有明确的GNSS的目标点 g ∈ R 2 g\in \mathbb R^2 g∈R2,其他npc没有目标点的,其次 high level command也是只有ego car有,所以其他车辆预测时是需要单独infer的
整个这个motion planner 内部也有两步:
预测未来 n = 10 n=10 n=10 的路径点 waypoints,使用的是:high level commnd c c c (包含:左转,右转,直行,跟随,换左道,换右道)
根据前情提要,我们就得分为两个部分loss,然后训练这个网络时 是两部分loss相加:一个ego 有真值的 c ^ \hat c c^,一个其他npc 需要infer的 c c c
L M e g o = E f ^ , y , c ^ [ ∥ y − M ( f ^ , c ^ ) ∥ 1 ] (1) \mathcal{L}_{M}^{e g o}=\mathrm{E}_{\hat{f}, y, \hat{c}}\left[\|y-M(\hat{f}, \hat{c})\|_{1}\right]\tag{1} LMego=Ef^,y,c^[∥y−M(f^,c^)∥1](1)
L M other = E f ^ , y [ min c ∥ y − M ( f ^ , c ) ∥ 1 ] \mathcal{L}_{M}^{\text {other }}=\mathrm{E}_{\hat{f}, y}\left[\min _{c}\|y-M(\hat{f}, c)\|_{1}\right] LMother =Ef^,y[cmin∥y−M(f^,c)∥1]
在a输出后,使用a输出的 y ~ \tilde y y~ 作为输入,然后结合 map-view feature f ^ \hat f f^ 和 GNSS给出的goal 来为ego car输出相对目标点
L M refine = E f ^ , y , y ~ , g ^ [ ∥ y ~ + M ′ ( f ^ , g ^ , y ~ ) − y ∥ 1 ] (3) \mathcal{L}_{M}^{\text {refine }}=\mathrm{E}_{\hat{f}, y, \tilde{y}, \hat{g}}\left[\left\|\tilde{y}+M^{\prime}(\hat{f}, \hat{g}, \tilde{y})-y\right\|_{1}\right] \tag{3} LMrefine =Ef^,y,y~,g^[∥∥∥y~+M′(f^,g^,y~)−y∥∥∥1](3)
这一部分的loss backpropagating 同样也会传回到perception backbone内,所以此时perception model也可以attend to the low-level details
网络框架细节
首先得到了ego car和其他车的detection,然后针对每辆车的位置和yaw角度,截取ROI 感兴趣的区域输入到一个CNN 对于车辆 i i i 输出一个embedding z i z^i zi,这个 z i z^i zi 是在 M , M ′ M,M' M,M′间共享的
这里对GRU输出相对位置有点像transfuser NEAT里的那样,看来是预测那边迁移task过来的
问题区:
对于其他车辆的预测轨迹,因为这个是实时仿真,难道是时间错开吗?就比如收集到的数据 预测t=1的后10帧时,拿的是后面10帧的实际运行轨迹进行的预测?看文字的意思好像是,可能得瞅瞅数据集和训练代码
we observe their future trajectory to obtain supervision for future waypoints y
其他车辆的high command没看到是怎样推断出来的
原文写的是:We instead allow the model to infer the high-level command directly and optimize the plan for the most fitting high-level command.
然而… 咋fitting出来的呢 emmm 后面看代码把
当输出了相对目标点,还需要进行一层控制,因为目标点并不能直接给车,CARLA内 车接受的是油门,方向盘和刹车指令。这里作者和其他的transfuser NEAT 之类的用的是一样的 两个PID 控制。有意思的是(和我 前几天和同学讨论的brake最好外加一个network只做brake响应 这样应该能降低事故率)没想到想一块了 简直了 hhhh
也就是虽然PID会根据motion plan的相对坐标输出油门、方向盘,但是这里多加了对刹车的neural network calssifier专门对交通灯和危险场景进行刹停
这个分类器的输入是前面的三个相机外加一个远距相机 类似于前面说面的照片 右边那张,也就说整体系统是四个相机,只是前面用了三个,这里用的四个
网络框架细节
网络使用的是Resnet18输出fixed sized embedding然后concatenate到一起 放入一个线性层去预测binary brake(也就是刹车还是不刹车 二值)
然后对于输出的轨迹 进行一层判断,如下图逻辑,如果该轨迹会导致碰撞就调整一下
所以我们先用3D detection和分割任务学习了perception model,然后plan motion进行轨迹预测再往回传到perception进行loss,最后这两者输出map-view feature带motion plan预测的轨迹,然后用high-level command likelihodd thereshold 来检查是否碰撞
这一部分 看下在线排行榜 RC方面达到了惊人的94分 真的是令人敬佩,做过这个任务的就知道 RC打到80分以上已经算是突破了,然后扣完分也有61分,甩现在的 March 23, 2022 第二名十分了,词穷只能再说一句 牛掰!
这里就贴一下表格,因为我做过这个任务… 所以基本不用看文字 我都知道这些指标是些啥 好坏与否hhh,主要就贴消融实验里的部分了
之所以开头说和特斯拉 AI day说的很像是因为下面这幅效果图 hhh 真的太像了,果然这个作者的效果图都超酷hhh WOR也是
没啥好conclusion了,一句话 牛掰,这个作者我着实佩服,按着每年一篇的速度(还基本上是一个人在做)引领 CARLA 这个自动驾驶任务的方向!【从lbc, wor 再到现在的lav】佩服!
就贴一下原文的讨论把,虽然我觉得这已经是到头了 真的是厉害
前段时间赶完论文后,又看了一遍WOR的代码和评估,当时和这个作者在github 交流了好久 发现我竟然没follow,随手一个follow 第二天看的时候发现啊,大佬回follow我了 这就像你偶像关注你一样 hhh 太奇妙了
另外 有意思的是,我做的这个任务的时候 到后面 我一直以为瓶颈在专家数据,LAV这篇丝毫没提这个,而… 代码也没po 他是如何收集数据的,比如transfuser, lbc 和mmfn 都会进行说明数据如果进行收集,不过从开出来的数据集400多G 再瞅瞅我的 100G hhh 知道了 差距,此点的相关issue
代码运行相关,好像代码没po全还有些小问题,
PS 相关包的下载可能会出现的问题,请通过以下命令
conda install pytorch-scatter -c pyg
记得下载 git-lfs
赠人点赞 手有余香 ;正向回馈 才能更好开放记录 hhh