可以把定位看作坐标系变换问题,即全局地图坐标系与机器人local坐标系的变换。
传感器通常不能直接测量位置,需要从其他数据中推算位置。
通常需要累积一段时间的数据,来进行定位。
定位算法通常针对特定地图表达方式,多种多样。
局部(local) v.s. 全局(global)
定位问题可按照初始化的信息和运行时的信息分三类,难度递增:
静态环境(static) v.s. 动态环境(dynamic)
两种方法应对动态环境:把动态物体加入状态变量中,使状态符合马尔科夫假设,但计算量大、模型复杂;还可以对传感器数据进行滤波,过滤掉未建模的动态信息。
被动()passive) v.s. 主动(Active)
根据定位算法是否控制机器人运动而区分。
被动定位下,机器人的运动并不是为了增强定位效果。主动定位下,运动的目的是减小定位误差或减小把一个定位不好的机器人移动到一个混乱的环境中的代价。
纯主动定位没有用——机器人的作用在于完成任务。有些主动定位技术是在被动定位之上构造的,也有些结合了具体任务。
本章只讲被动,主动在后续章节。
单机器人 v.s. 多机器人
单机器人没有通信的问题。
多机器人利用可以互相探测的关系,一个机器人的置信度可以影响另一个机器人。
概率的定位算法都是贝叶斯滤波器的变种。
马尔科夫定位是贝叶斯滤波器在定位问题中的直接应用,可以解决静态环境中的全局定位、定位追踪、绑架问题。
算法:Algorithm Markov-localization( b e l ( x t − 1 ) , u t , z t , m bel(x_{t-1}),u_t,z_t,m bel(xt−1),ut,zt,m):
1····for all x t x_t xt do
2········ b e l ^ ( x t ) = ∫ p ( x t ∣ u t , x t − 1 , m ) b e l ( x t − 1 ) d x \hat{bel}(x_t)=\int p(x_t|u_t,x_{t-1},m)bel(x_{t-1})dx bel^(xt)=∫p(xt∣ut,xt−1,m)bel(xt−1)dx
3········ b e l ( x t ) = η p ( z t ∣ x t , m ) b e l ^ ( x t ) bel(x_t)=\eta p(z_t|x_t,m)\hat{bel}(x_t) bel(xt)=ηp(zt∣xt,m)bel^(xt)
4····endfor
5····return b e l ( x t ) bel(x_t) bel(xt)
一维的小机器人看门的例子,不详细记了。
EKF定位是马尔科夫定位的特殊情况,即各种东西都是高斯分布,然后用前两阶矩来表达(均值和方差)。
EKF定位假设地图是一系列特征,在时间点 t t t,机器人得到一系列特征的观测,每个观测包含距离、方向、身份 c t i c_t^i cti,即观测 z t = { z t 1 , z t 2 , . . . } z_t=\{z_t^1, z_t^2,...\} zt={zt1,zt2,...},并且每个特征都是可区分的,不可区分的在后文。
还是机器人一维运动,有三个小门。假设特征点可区分,也就是门都有独立的标签,所以测量模型是 p ( z t ∣ x t , c t ) p(z_t|x_t,c_t) p(zt∣xt,ct),对 x t x_t xt都是一个窄带高斯,其中 c t c_t ct取值为1、2、3。此外,再假设初始状态已知(窄高斯)。
输入包括初始估计(高斯),控制 u t u_t ut,地图 m m m,还有时间 t t t观测到的一系列特征 z t = { z t 1 , z t 2 , . . . } z_t=\{z_t^1, z_t^2,...\} zt={zt1,zt2,...}。输出是新的状态估计的均值和方差。
伪代码不写了,在下一章节中详细说推导。
应用中不知道测量特征与地图特征的对应关系,因此需要在定位过程中对特征的身份进行估计。最简单的方法是maxmum likelihood correspondence(最大似然对应),即首先确定配对的最可能的值,然后使用。
如果对配对变量有多个假设的可能性相似,那这个方法不好使,但设计系统的时候可以避免,有两个常用技巧:选择非常独特且彼此距离较远的特征,使不容易混淆;还可以保证机器人的位姿不确定性保持在很小的范围。但是这两个方案彼此矛盾,选择特征的间隔是一门艺术。
运动更新与前文EKF相同,不同在于测量更新:首先计算地图中所有地标的一系列量,可以用来判断配对;之后通过最小化测量到的与预期的特征向量之间的Mahalanobis平方距离函数,来选择配对变量。
实际中,机器人只能看见离的很近的很少的地标,然后可以用一些很简单的测试来拒绝掉地图中一大部分不太可能的地标。
算法也可以修改,以应对outliers,如仅使用Mahalanobis距离小于一定阈值的特征。
伪代码待补充
指导思想是找到最大化测量数据可能性的配对,即:
c t ^ = arg max c t p ( z t ∣ c 1 : t , m , z 1 : t − 1 , u 1 : t ) \hat{c_t}=\mathop{\arg\max}_{c_t}p(z_t|c_{1:t},m,z_{1:t-1},u_{1:t}) ct^=argmaxctp(zt∣c1:t,m,z1:t−1,u1:t)
注意这以之前的 c t : t − 1 c_{t:t-1} ct:t−1为条件进行最大化,最大似然估计器假设他们都是正确的。这样可以递增地更新滤波器,但也让滤波器表现脆弱。
由贝叶斯定理和马尔科夫性,可对上式变形,即:
p ( z t ∣ c 1 : t , m , z 1 : t − 1 , u 1 : t ) = ∫ p ( z t ∣ c t , x t , m ) b e l ˉ ( x t ) d x t p(z_t|c_{1:t},m,z_{1:t-1},u_{1:t})=\int p(z_t|c_t,x_t,m)\bar{bel}(x_t)dx_t p(zt∣c1:t,m,z1:t−1,u1:t)=∫p(zt∣ct,xt,m)belˉ(xt)dxt
也就是变成了最大化右式,得到 c t ^ \hat{c_t} ct^。
这个最大化是以整个 c t c_t ct向量为自变量,所以复杂度随特征向量的大小指数增长。
一种常用的解决手段是对每个特征 z t i z_t^i zti分别最大化,即
c t i ^ = arg max c t ∫ p ( z t i ∣ c t i , x t , m ) b e l ˉ ( x t ) d x t \hat{c_t^i}=\mathop{\arg\max}_{c_t}\int p(z_t^i|c_t^i,x_t,m)\bar{bel}(x_t)dx_t cti^=argmaxct∫p(zti∣cti,xt,m)belˉ(xt)dxt.
而上式中的单个特征的测量概率可由下式计算:
p ( z t i ∣ c t i , x t , m ) = η exp { − 1 2 ( z t i − h ( x t , c t i , m ) ) T Q t − 1 ( z t i − h ( x t , c t i , m ) ) } p(z_t^i|c_t^i,x_t,m)=\eta\exp\{-\frac{1}{2}(z_t^i-h(x_t,c_t^i,m))^TQ_t^{-1}(z_t^i-h(x_t,c_t^i,m))\} p(zti∣cti,xt,m)=ηexp{−21(zti−h(xt,cti,m))TQt−1(zti−h(xt,cti,m))}
然后再对上式进行泰勒展开,再带入上上式的积分中,得到close form的积分结果表达式:
c ^ t i = arg max c t i ( z t i − h ( μ ˉ t , c t i , m ) ) T [ H t Σ ˉ t H t T + Q t ] − 1 ( z t i − h ( m u ˉ t , c t i , m ) ) \hat{c}_t^i=\arg\max_{c_t^i}(z_t^i-h(\bar{\mu}_t,c_t^i,m))^T[H_t\bar{\Sigma}_tH_t^T+Q_t]^{-1}(z_t^i-h(\bar{mu}_t,c_t^i,m)) c^ti=argmaxcti(zti−h(μˉt,cti,m))T[HtΣˉtHtT+Qt]−1(zti−h(muˉt,cti,m))
当数据无法很好的关联时,有很多方案可以选择,本章介绍Multi-hypothesis Tracking (MHT)算法。这种算法可以用多个(记为 l l l个)高斯按不同权重叠加来表征置信概率分布,其中每一个高斯都对应某一种特定的数据关联序列,将其记为 c t , l c_{t,l} ct,l。所以我们可以把每一个置信分布成分看作是以一个特定的数据关联序列为条件,即:
b e l l ( x t ) = p ( x t ∣ z 1 : t , u t : t , c t : t , l ) bel_l(x_t)=p(x_t|z_{1:t},u_{t:t},c_{t:t},l) bell(xt)=p(xt∣z1:t,ut:t,ct:t,l)
一种简单但是计算量不可行的思路是,在算法中维护所有的可能的数据关联序列。每一个高斯的权重随时间不停迭代。即我们把关联看作潜在的变量,并且计算每一个高斯组成部分的后验可能性。但是高斯组成部分的数量不断增加,然后会变得不可解。
MHT算法基于上述算法,但控制高斯成分的数量,即当一个成分的权重小于某个阈值时,终止它,所以成分的数量总小于阈值的倒数。
有几个EKF和MHT的变种,有更高的效率和鲁棒性:
EKF和MHT定位只适用于定位追踪问题,并且一般在不确定性较小的情况下比较好用,原因有三个:
给EKF设计合适的特征是一门艺术,因为有很多要求:要多,要独特,要离得远。很多环境并没有很多的点地标,所以总的来说,地标越多,工作越好。但地标如果稠密,则应该加上mutual exclusion。
此外,EKF使用特征,也就是只是用了测量带来的一部分信息,也不能处理negative information (即该看见但没看见特征),因为负信息也是信息。不能处理的原因是因为它引入了非高斯的分布。MHT中可以使用减少权重的方法来处理付信息。
定位的优劣取决于数据关联。后面的章节将会讲更多更复杂的数据关联技巧。