自动驾驶的千里眼,顺风耳:全网最通俗的 ADAS 传感器讲解

自动驾驶的千里眼,顺风耳:全网最通俗的 ADAS 传感器讲解_第1张图片

自动驾驶的千里眼,顺风耳:全网最通俗的 ADAS 传感器讲解!

“自动驾驶靠不靠谱?”
“自动驾驶怎么判断前面是不是人?”
“我的车也有雷达,是不是就能自动驾驶了?”

别急,想搞懂这些问题,你得先了解——自动驾驶的“感知层传感器”都干了些啥

一句话概括:

自动驾驶的传感器,负责看世界、听声音、闻环境,是整套系统的“感官器官”。

本文,就来扒一扒这些“感官”的底细!


自动驾驶感知层 = 多模态融合的传感器大军!

首先来个框图镇楼:

┌──────────────────────────┐
│          感知层           │
├────────┬────────┬────────┤
│  摄像头  │  毫米波雷达  │  激光雷达  │
├────────┼────────┼────────┤
│  超声波  │  IMU+GPS  │  高精地图   │
└────────┴────────┴────────┘

是不是很像人类的眼、耳、皮肤、内耳、记忆组合?


摄像头:视觉神经元,大脑的眼睛

优点

  • 分辨率高(最高可达8MP)
  • 可识别车道线、行人、红绿灯、交通标志
  • 成本低,已经在量产中成熟应用

⚠️ 局限

  • 容易被雨雾、逆光、夜晚影响
  • 只能看到,无法准确测距(除非配合结构光或双目)

常见种类

类型 应用方向 FOV
前视单目摄像头 车道识别、障碍识别 50°~70°
环视摄像头 低速泊车/全景 180°
双目摄像头 主动距离识别 70°
红外夜视 夜间行人识别 ~40°

毫米波雷达:老司机的“顺风耳”

你听不见的,毫米波都能感知。

原理

通过发射高频电磁波(24GHz/77GHz),接收目标反射波,计算距离、速度、角度

✅ 优点

  • 不怕雨雪雾(恶劣天气首选)
  • 对金属物体反射率高,适合高速探测
  • 能精准测速度(相对速度)

⚠️ 缺点

  • 分辨率不如摄像头
  • 容易误报静止非金属物体(如人、树)

激光雷达 LiDAR:全场景感知王者

你可以不配激光雷达,但你不能忽视它的优雅。

工作方式:

旋转/固态激光束 → 打在物体 → 反射回来 → 计算距离
生成精确的点云图

优点

  • 高精度三维感知,能区分远处物体
  • 精准构建环境地图
  • 自带测距能力,适合高阶自动驾驶(L3+)

缺点

  • 成本高(但正逐年下降)
  • 雨雾环境穿透力差
  • 点云数据复杂,算力需求高

超声波雷达:近场泊车好帮手

距离短、精度高、反应快,停车场神器!

应用:

  • 自动泊车(APA)
  • 低速避障
  • 倒车防碰撞

探测距离:0.2m ~ 5m
频率:40kHz上下


IMU + GNSS:搞不清自己在哪?它来定位!

我是谁?我在哪?我在干什么?

IMU(三轴加速度+陀螺仪)

解决“车动了没,动了多快”。

GNSS(高精定位)

辅助车辆定位,结合RTK可实现厘米级定位。
当然也有用惯导、SLAM或地图重定位方法提升鲁棒性。


高精地图:老司机的“导航记忆”

高精地图 ≠ 你手机导航那种。
它包含:

  • 车道线、红绿灯、标志牌的几何位置
  • 各种道路规则信息
  • 实时更新的动态场景数据

常见供应商如:Momenta、四维图新、百度、高德等。


为啥要“融合感知”?

因为——没有哪一个传感器是完美的!

传感器 看得清 测得准 晚上OK 雨雾OK
摄像头 一般
毫米波雷达
激光雷达
超声波

所以自动驾驶系统往往选择“多模态融合”,也就是 Sensor Fusion,把多个传感器的信息叠加计算,互补冗余,确保安全。


总结:传感器不是越多越好,而是要选对组合!

自动驾驶感知就像武林门派:

  • 摄像头 = 少林拳,基础但全能;
  • 毫米波 = 铁布衫,抗干扰;
  • 激光雷达 = 独孤九剑,精准但昂贵;
  • 超声波 = 五步蛇拳,近战毒辣;
  • IMU/GPS = 内功心法,藏而不露。

一辆靠谱的智能车,必须是多门派融合,内外兼修,才能在道路江湖中立于不败之地!


下一篇预告

「一文读懂激光雷达内核:旋转、MEMS、Flash、OPA 谁更能打?」
关注我,带你一路深入底层架构

你可能感兴趣的:(自动驾驶,人工智能,机器学习)