飞控的职责和实现原理简述

术语表

这些解释是为了读者能看懂的,不是专业表述。

  1. 制导:导引和控制,不断测定自身与目标的相对位置关系,发出信号给控制系统以控制飞行去接近目标。

  1. 机器视觉:一个典型的工业机器视觉系统包括:光源、镜头(定焦镜头、变倍镜头、远心镜头、显微镜头)、 相机(包括CCD相机和COMS相机)、图像处理单元(或图像捕获卡)、图像处理软件(含图像识别)、监视器、通讯 / 输入输出单元等。

  1. 图像识别:对图像进行处理、分析和理解,识别出预定的目标。图像的传统识别流程分为四个步骤:图像采集→图像预处理→特征提取→图像识别

  1. 特征:图像识别的核心要素。简单地以人脸识别为例,拟定眼睛为基准点,瞳孔形状、眼眶形状、眉毛/鼻子/耳朵/嘴唇的距离等,这些数据共同构成了判断“这是不是人脸”以及“这是哪个人的脸”的依据,故而一起称为“特征”。特征是人工选定基础要素和计算方法后得出的,目标是使得判断“是不是人脸”具有准确性以及“是谁的脸”具有唯一性

  1. 特征工程:选定特征要素进行标签化、建立标签体系、对数据打标签并量化,从而完成“特征化”。这是机器学习的基础,直白点说就是“体系化、数字化、工程化”地描述一个事物,从而让机器能运算(理解)。再俗一点说——做一个后台管理系统来管理标签。

  1. 深度学习:机器学习技术中最热门的一种,目标是解决两类问题,特征算法以及判断是否符合特征的算法,简单来说就是要得出一个公式。当参与计算的变量多到人类没法考量(通常上万个)的时候,由机器来帮助得出这个公式。这个公式甚至是人类也无法理解的,但幸好不用理解,只要把变量代入公式,得到结果去应用即可。对飞控来说,多个物体连续时刻下不同传感器给出的各种状态数据一下子就能构成几百个变量。

  1. 融合(计算):在飞控领域主要指对多路来源数据进行综合计算。这些来源数据的意义是一样的,由于测量方法和精度不同而具体数值不同,计算的结果是得出一个可信的数值用于后续的所有操作。如果不复杂,可以人工用简单算法(例如加权平均数)实现,复杂的话可以用机器学习;没有特别说明的话是用人工算法来计算的。

  1. 投影轮廓:三维物体在二维平面上表现(投影)出的形状。

  1. 地图地形:俗话中的地图主要包含道路和建筑的分布,以经纬度来标记位置,不包括高度信息。地形数据可以提供该经纬度坐标点的海拔高度信息(高程数据),如果这个信息是精确到建筑高度而不仅是地表海拔高度,那么地图+地形就能构成完整的3D地图。

  1. 图像测距:请参考双目摄像头测距算法。了解即可。

  1. 雷达测距:请参考3分钟讲清激光雷达的工作原理。了解即可。

数据输入与加工

一个MCU的工作过程可以描述为:原始数据输入=>数据加工=>数据输出。

先看看飞控接受(感知)了什么原始数据和加工得到什么信息。

数据来源

原始数据

初步加工可得数据

传感器-相机

图像

  1. 自身的速度、相对运动方向(以自身为参照)

  1. 自身的离地高度

  1. 周边物体的距离、速度、运动方向、投影轮廓

  1. 周边物体的类型(人、车、鸟、地面、建筑等)

  1. 周边物体的状态(交通灯信号等)

  1. 周边天气

传感器-雷达

特定方向上的障碍物的距离

  1. 自身的速度、相对运动方向

  1. 自身的离地高度

  1. 周边物体的距离、速度、运动方向、投影轮廓

传感器-IMU-(加速度计、角速度计/陀螺仪、气压高度计)

  1. 气压值、气温、海拔高度

  1. 各个方向的加速度

  1. 与铅直方向的夹角

  1. 自身的速度、相对运动方向

  1. 自身的海拔高度

  1. 自身的朝向(以地心为参照)

传感器-GPS

  1. 经纬度

  1. 海拔高度

  1. 水平和铅直运动速度

  1. 世界时间

  1. 数据误差、卫星数、信号强度等

  1. 自身的速度、绝对运动方向(以北极为参照)

  1. 自身的朝向(以北极为参照)

  1. 世界时间

传感器-指南针

自身的朝向

自身的朝向(以北极为参照)

计时器

开机至今流逝时间,精确到微秒

(计算各种速度的基础)

人机交互-航线

航点的经纬度、高度、直线/曲线模式

目标朝向和距离

人机交互-操纵杆

电信号

自身的速度、相对运动方向

无线传输-厂商

  1. 地图地形

  1. 世界时间

  1. 各地天气(风力、气温、能见度)

  1. 地面的海拔高度

  1. 航线上的障碍物

  1. 自己或周边物体在图中的位置

  1. 安全降落点

  1. 世界时间

  1. 航线上的天气

无线传输-厂商-政府部门

管制信息

  1. 营地位置、范围

  1. 限飞禁飞区域(地理围栏)

  1. 空路交通状况(有没有其他人在飞)

其它

三电数据等

  1. 自身的速度,相对运动方向

  1. 是否需要紧急降落

从上表可看到,同一个数据(例如自身离地高度)可以有多种来源,而且同类传感器还有多重冗余备份,加上实时精度估算的考虑,最终结果的融合计算过程是比较复杂的。

另外,总结传感器的选择考虑点有:采购成本、算力、功耗、精度、重量、可靠性、有效距离、抗干扰、行业规格要求、营销效应等。

数据输出与用途

飞控的数据输出:

功能

目标输出模块

利用数据

相关技术

定位

导航

经纬度、高度、朝向、速度、运动方向、地图地形

机器视觉,融合计算

姿态稳定

辅助驾驶

经纬度、高度、朝向、运动方向、三电

融合计算

避障

导航、预警、自动驾驶

周边物体的距离、速度、运动方向、投影轮廓;地图地形

特征工程、机器视觉,深度学习

航线规划

导航、自动驾驶

地图地形、管制信息、天气

融合计算

制导

自动驾驶

经纬度、高度、朝向、运动方向

融合计算

注意,制导只是简单地令飞行器向目标点行进,避障是通过改变目标点来实现的。自动驾驶本身也是一种融合计算,综合了多个功能部件的数据来实现,它的核心作用是决策,而不是控制。

参考资料

  • 二、无人机技术栈

  • Downloading and Analyzing Data Logs in Mission Planner ‒ Copter documentation

你可能感兴趣的:(飞控,无人机,人工智能)