拟合问题(直线平面拟合)

拟合问题

文章目录

  • 拟合问题
    • 1.0 线性最小二乘的几种解法
      • 1.1 基于特征值的解法
      • 1.2 基于奇异值分解的解法
    • 2.0 平面拟合
    • 3.0 直线拟合

1.0 线性最小二乘的几种解法

1.1 基于特征值的解法

\quad 特征值解法 代数意义上的线性最小二乘是指给定矩阵 A ∈ R m × n \boldsymbol{A} \in \mathbb{R}^{m \times n} ARm×n,计算 x ∗ ∈ R n \boldsymbol{x}^{*} \in \mathbb{R}^{n} xRn,使得:

x ∗ = arg ⁡ min ⁡ x ∥ A x ∥ 2 2 = arg ⁡ min ⁡ x x ⊤ A ⊤ A x ,  s.t.,  ∥ x ∥ = 1. \boldsymbol{x}^{*}=\arg \min _{\boldsymbol{x}}\|\boldsymbol{A} \boldsymbol{x}\|_{2}^{2}=\arg \min _{\boldsymbol{x}} \boldsymbol{x}^{\top} \boldsymbol{A}^{\top} \boldsymbol{A} \boldsymbol{x}, \quad \text { s.t., }\|\boldsymbol{x}\|=1 . x=argxminAx22=argxminxAAx, s.t., x=1.
\quad 可以看到 A ⊤ A \boldsymbol{A}^{\top} \boldsymbol{A} AA 为一个实对称矩阵, 而根据线性代数的矩阵, 实对称矩阵总是可以利用特征 值分解进行对角化的:

A ⊤ A = V Λ V − 1 \boldsymbol{A}^{\top} \boldsymbol{A}=\boldsymbol{V} \boldsymbol{\Lambda} \boldsymbol{V}^{-1} AA=VΛV1
\quad 其中 Λ \boldsymbol{\Lambda} Λ 为对角特征值矩阵, 不妨认为它们按照从大到小的顺序排列, 记作 λ 1 , … , λ n \lambda_{1}, \ldots, \lambda_{n} λ1,,λn V \boldsymbol{V} V 为正交 矩阵, 其列向量为每一维特征值对应的特征向量, 记作 v 1 , … v n \boldsymbol{v}_{1}, \ldots \boldsymbol{v}_{n} v1vn , 它们构成了一组单位正交基。而 任意 x x x 总是可以被这组单位正交基线性表出的:

x = α 1 v 1 + … + α n v n \boldsymbol{x}=\alpha_{1} \boldsymbol{v}_{1}+\ldots+\alpha_{n} \boldsymbol{v}_{n} x=α1v1++αnvn
那么不难看出:

V − 1 x = V ⊤ x = [ α 1 , … , α n ] ⊤ \boldsymbol{V}^{-1} \boldsymbol{x}=\boldsymbol{V}^{\top} \boldsymbol{x}=\left[\alpha_{1}, \ldots, \alpha_{n}\right]^{\top} V1x=Vx=[α1αn]

这里做一个简单的解释:其中 V − 1 \boldsymbol{V}^{-1} V1可以表示为
V − 1 = [ v 1 v 2 ⋅ ⋅ v n ] \boldsymbol{V}^{-1}= \begin{bmatrix} v_1 \\ v_2 \\ \cdot \\ \cdot \\ v_n \end{bmatrix} V1= v1v2vn
V − 1 x \boldsymbol{V}^{-1}x V1x
V − 1 x = [ v 1 x v 2 x ⋅ ⋅ v n x ] = [ v 1 ( α 1 v 1 + … + α n v n ) v 2 ( α 1 v 1 + … + α n v n ) ⋅ ⋅ v n x ] = [ a 1 a 2 ⋅ ⋅ a n ] \boldsymbol{V}^{-1}x= \begin{bmatrix} v_1 x \\ v_2x \\ \cdot \\ \cdot \\ v_nx \end{bmatrix}= \begin{bmatrix} v_1 (\alpha_{1} \boldsymbol{v}_{1}+\ldots+\alpha_{n} \boldsymbol{v}_{n}) \\ v_2(\alpha_{1} \boldsymbol{v}_{1}+\ldots+\alpha_{n} \boldsymbol{v}_{n}) \\ \cdot \\ \cdot \\ v_nx \end{bmatrix} = \begin{bmatrix} a_1 \\ a_2 \\ \cdot \\ \cdot \\ a_n \end{bmatrix} V1x= v1xv2xvnx = v1(α1v1++αnvn)v2(α1v1++αnvn)vnx = a1a2an

于是目标函数变为:
∥ A x ∥ 2 2 = ∑ k = 1 n λ k α k 2 \|\boldsymbol{A x}\|_{2}^{2}=\sum_{k=1}^{n} \lambda_{k} \alpha_{k}^{2} Ax22=k=1nλkαk2
∥ x ∥ = 1 \|\boldsymbol{x}\|=1 x=1 意味着 α 1 2 + … + α k 2 = 1 \alpha_{1}^{2}+\ldots+\alpha_{k}^{2}=1 α12++αk2=1 , 而特征值部分的 λ k \lambda_{k} λk 又是降序排列的, 所以就取 α 1 = 0 , … , α n − 1 = 0 , α n = 1 \alpha_{1}= 0, \ldots, \alpha_{n-1}=0, \alpha_{n}=1 α1=0αn1=0αn=1 , 即:
x ∗ = v n \boldsymbol{x}^{*}=\boldsymbol{v}_{n} x=vn

这里我们推断出了 a a a 的具体形式,也就是得到了 V ⊤ x V^{\top}x Vx 的具体形式为前面所有维度均为0,只有最后一个维度是 1 1 1,在已有的限制条件下如何能够得到当前的结果。我们有:
V ⊤ x = [ v 1 v 2 ⋅ ⋅ v n ] x = [ 0 0 ⋅ ⋅ 1 ] \boldsymbol{V}^{\top}x= \begin{bmatrix} v_1 \\ v_2 \\ \cdot \\ \cdot \\ v_n \end{bmatrix}x= \begin{bmatrix} 0 \\ 0 \\ \cdot \\ \cdot \\1 \end{bmatrix} Vx= v1v2vn x= 001
x x x 可取 x = v n x=v_n x=vn
V ⊤ x = [ v 1 v 2 ⋅ ⋅ v n ] v n = [ v 1 v n v 2 v n ⋅ ⋅ v n v n ] = [ 0 0 ⋅ ⋅ 1 ] \boldsymbol{V}^{\top}x= \begin{bmatrix} v_1 \\ v_2 \\ \cdot \\ \cdot \\ v_n \end{bmatrix}v_n= \begin{bmatrix} v_1v_n \\ v_2v_n \\ \cdot \\ \cdot \\ v_nv_n \end{bmatrix}= \begin{bmatrix} 0 \\ 0 \\ \cdot \\ \cdot \\1 \end{bmatrix} Vx= v1v2vn vn= v1vnv2vnvnvn = 001

\quad 至此我们看到, 线性最小二乘的最优解即为最小特征值向量。而由于该问题想要解的是 A x = 0 A x= 0 Ax=0 问题, 所以也可以称为零空间解。注意这里的特征值分解是对 A ⊤ A \boldsymbol{A}^{\top} \boldsymbol{A} AA 做的, 而不是直接对 A \boldsymbol{A} A 来 做 ( A \boldsymbol{A} A 也不能保证一定能对角化, 而 A ⊤ A \boldsymbol{A}^{\top} \boldsymbol{A} AA 是实对称矩阵, 可以对角化)。

1.2 基于奇异值分解的解法

\quad 奇异值解法 上述问题也可以换一种角度来看, 使用奇异值分解 (Singular Value Decomposition, SVD) 来处理。由于任意矩阵都可以进行奇异值分解, 于是我们对 A \boldsymbol{A} A 进行 SVD, 可得:
A = U Σ V ⊤ \boldsymbol{A}=\boldsymbol{U} \boldsymbol{\Sigma} \boldsymbol{V}^{\top} A=UΣV
\quad 其中 U , V \boldsymbol{U}, \boldsymbol{V} UV 为正交矩阵, Σ \boldsymbol{\Sigma} Σ 为对角阵, 称为奇异值矩阵, 其对角线元系为 A \boldsymbol{A} A 的奇异值, 不妨它们 是由大到小排列的。我们可以把 SVD 的结果代回到线性最小二乘中, 由于 U \boldsymbol{U} U 为正交矩阵, 在计算 二范数时会被消掉。我们会发现它们和特征值法实际上是一致的:

x ⊤ A ⊤ A x = x ⊤ V Σ 2 V ⊤ x . \boldsymbol{x}^{\top} \boldsymbol{A}^{\top} \boldsymbol{A x}=\boldsymbol{x}^{\top} \boldsymbol{V} \boldsymbol{\Sigma}^{2} \boldsymbol{V}^{\top} \boldsymbol{x} . xAAx=xVΣ2Vx.
\quad 于是, 类似于特征值的解法, 我们取 x \boldsymbol{x} x V \boldsymbol{V} V 的最后一列即可。总而言之, 如果我们对一组点进行平面拟合, 只需要把所有点的坐标排成 矩阵 A \boldsymbol{A} A , 然后求 A \boldsymbol{A} A 的最小奇异值对应的右奇异值向量, 或者求 A ⊤ A \boldsymbol{A}^{\top} \boldsymbol{A} AA 的最小特征值对应的特征向量即可。

2.0 平面拟合

\quad 我们先看平面的拟合问题。给定一组由 n n n 个点组成的点云 X = { x 1 , … , x n } \boldsymbol{X}=\left\{\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{n}\right\} X={x1xn} , 其中每个点的 坐标取三维欧氏坐标 x k ∈ R 3 \boldsymbol{x}_{k} \in \mathbb{R}^{3} xkR3 。然后我们寻找一组平面参数 n , d \boldsymbol{n}, d nd , 使得:
∀ k ∈ [ 1 , n ] , n ⊤ x k + d = 0 \forall k \in[1, n], \boldsymbol{n}^{\top} \boldsymbol{x}_{k}+d=0 k[1,n],nxk+d=0
\quad 其中 n ∈ R 3 \boldsymbol{n} \in \mathbb{R}^{3} nR3 为法向量, d ∈ R d \in \mathbb{R} dR 为截距。显然,上述问题有四维末知量, 而每个点提供了三个方程。当我们有多个点时,由于噪声影 响,上述方程大概率是无解的 (超定的)。因此, 我们往往会求最小二乘解 (Linear Least Square )。

使其误差最小化:

min ⁡ n , d ∑ k = 1 n ∥ n ⊤ x k + d ∥ 2 2 . \min _{\boldsymbol{n}, d} \sum_{k=1}^{n}\left\|\boldsymbol{n}^{\top} \boldsymbol{x}_{k}+d\right\|_{2}^{2} . n,dmink=1n nxk+d 22.
\quad 如果取齐次坐标, 还可以再化简一下该问题。一个三维空间点的齐次坐标是四维的, 但实际处理 当中只需在末尾加上 1 即可, 我们记作:

x ~ = [ x ⊤ , 1 ] ⊤ ∈ R 4 . \tilde{\boldsymbol{x}}=\left[\boldsymbol{x}^{\top}, 1\right]^{\top} \in \mathbb{R}^{4} . x~=[x,1]R4.
\quad 于是 n ~ = [ n ⊤ , d ] ⊤ ∈ R 4 \tilde{\boldsymbol{n}}=\left[\boldsymbol{n}^{\top}, d\right]^{\top} \in \mathbb{R}^{4} n~=[nd]R4 也是一个齐次向量, 上述方程可以写为 :

min ⁡ n ~ ∑ k = 1 n ∥ x ~ k ⊤ n ~ ∥ 2 2 . \min _{\tilde{n}} \sum_{k=1}^{n}\left\|\tilde{\boldsymbol{x}}_{k}^{\top} \tilde{\boldsymbol{n}}\right\|_{2}^{2} . n~mink=1n x~kn~ 22.
\quad 下标 2 表示取二范数, 即欧氏空间的常规范数, 上标二表示取欧氏范数的平方和。上述问题是求 和形式的线性最小二乘, 我们还可以把它写成矩阵形式。将点云的所有点写在一个矩阵中, 记作:

X ~ = [ x ~ 1 , … , x ~ n ] \tilde{\boldsymbol{X}}=\left[\tilde{\boldsymbol{x}}_{1}, \ldots, \tilde{\boldsymbol{x}}_{n}\right] X~=[x~1,,x~n]
\quad 那么该问题中的求和号也可以省略掉:

min ⁡ n ~ ∥ X ~ ⊤ n ~ ∥ 2 2 \min _{\tilde{\boldsymbol{n}}}\left\|\tilde{\boldsymbol{X}}^{\top} \tilde{\boldsymbol{n}}\right\|_{2}^{2} n~min X~n~ 22
\quad 这个问题即线性代数中的解方程问题: 给定任意一个矩阵 A \boldsymbol{A} A (注意不是方阵), 我们希望找一 个非零向量 x \boldsymbol{x} x , 使得 A x \boldsymbol{A x} Ax 能够最小化。当然, 如果 x \boldsymbol{x} x 取为零, 该乘积自然是零, 但是我们不想找这 种平凡的解, 所以要给 x \boldsymbol{x} x 加上约束 x ≠ 0 \boldsymbol{x} \neq 0 x=0 。同时, 如果 x \boldsymbol{x} x 乘上非零常数 k k k, 那么 A x \boldsymbol{A} \boldsymbol{x} Ax 也会被放大 k k k 倍, 平方之后就是 k 2 k^{2} k2 倍。所以我们不想讨论 x \boldsymbol{x} x 的长度, 只想知道它的方向, 于是又设定 ∥ x ∥ = 1 \|\boldsymbol{x}\|=1 x=1
\quad 对于 A \boldsymbol{A} A, 我们就不施加什么约束了。在点云平面提取问题中, 上面的 A \boldsymbol{A} A 为一个 R n × 4 \mathbb{R}^{n \times 4} Rn×4 的矩阵, 而 x \boldsymbol{x} x 则为 R 4 \mathbb{R}^{4} R4 中的单位向量。我们可以问, 取什么样的 x \boldsymbol{x} x 时, A x \boldsymbol{A x} Ax 能达到最大值或者最小值。

\quad 这里的 A \boldsymbol{A} A 其实就是前面方程中的 X ~ \tilde{\boldsymbol{X}} X~,这里的 x \boldsymbol{x} x 其实就是前面的 n ~ \tilde{\boldsymbol{n}} n~

3.0 直线拟合

\quad 直线拟合。我们仍然设点集为 X X X n n n 个三维点组成。不过,我们可以用若干种不同的方式来描述一根直线,例如把直线视为两个平面的交线,或者使用直线上一点再加上直线方向矢量来描述直线。后者更直观一些。
\quad 设直线上的点 x x x 满足方程:
x = d t + p x=dt+p x=dt+p
\quad 其中 d , p ∈ R 3 , t ∈ R \boldsymbol{d}, \boldsymbol{p} \in \mathbb{R}^{3}, t \in \mathbb{R} d,pR3,tR d \boldsymbol{d} d 为直线的方向, 满足 ∥ d ∥ = 1 \|\boldsymbol{d}\|=1 d=1 p \boldsymbol{p} p 为直线 l l l 上某个点, t t t 为直线参数。

我们想求的是 d \boldsymbol{d} d p p p , 共 6 个末知数。显然, 当给定的点集较大时, 这依然是一个超定方程, 需要 构造最小二乘问题进行求解。
对于任意一个不在 l l l 上的点 x k x_{k} xk , 我们可以利用勾股定理, 计算它离直线垂直距离的平方:
f k 2 = ∥ x k − p ∥ 2 − ∥ ( x k − p ) ⊤ d ∥ 2 , f_{k}^{2}=\left\|\boldsymbol{x}_{k}-\boldsymbol{p}\right\|^{2}-\left\|\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right)^{\top} \boldsymbol{d}\right\|^{2}, fk2=xkp2 (xkp)d 2,

这里做个解释,这里假设直线外有一点 x k x_k xk,做该点到直线的垂线,同时假设直线上有一点 p p p,且该点不是刚刚直线外那一点的垂点 O O O,那么此时由直线上的点,垂点,直线外的点 x k x_k xk 三个点构成了一个直角三角形,求 ∣ ∣ x k O ∣ ∣ 2 ||x_kO||_2 ∣∣xkO2,那么根据勾股定理知道斜边 ∥ x k − p ∥ 2 \left\|\boldsymbol{x}_{k}-\boldsymbol{p}\right\|^{2} xkp2,也可算出斜边在直线上的投影 ∥ ( x k − p ) ⊤ d ∥ 2 \left\|\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right)^{\top} \boldsymbol{d}\right\|^{2} (xkp)d 2,即可得到点到直线的距离。

然后构造最小二乘问题, 求解 d \boldsymbol{d} d p p p :

( d , p ) ∗ = arg ⁡ min ⁡ d , p ∑ k = 1 n f k 2 ,  s.t.  ∥ d ∥ = 1. (\boldsymbol{d}, \boldsymbol{p})^{*}=\arg \min _{\boldsymbol{d}, \boldsymbol{p}} \sum_{k=1}^{n} f_{k}^{2}, \quad \text { s.t. }\|\boldsymbol{d}\|=1 . (d,p)=argd,pmink=1nfk2, s.t. d=1.
由于每个点的误差项已经取了平方形式, 在此只需求和即可。
接下来我们分离 d \boldsymbol{d} d 部分和 p \boldsymbol{p} p 部分。先考虑 ∂ f k 2 ∂ p \frac{\partial f_{k}^{2}}{\partial \boldsymbol{p}} pfk2 , 得到:
∂ f k 2 ∂ p = − 2 ( x k − p ) + 2 ( x k − p ) ⊤ d ⏟ 标量,  = d ⊤ ( x k − p ) d , = ( − 2 ) ( I − d d ⊤ ) ( x k − p ) .  \begin{array}{l} \frac{\partial f_{k}^{2}}{\partial \boldsymbol{p}}=-2\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right)+2 \underbrace{\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right)^{\top} \boldsymbol{d}}_{\text {标量, }=\boldsymbol{d}^{\top}\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right)} \boldsymbol{d}, \\ =(-2)\left(\boldsymbol{I}-\boldsymbol{d} \boldsymbol{d}^{\top}\right)\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right) \text {. } \\ \end{array} pfk2=2(xkp)+2标量=d(xkp) (xkp)dd,=(2)(Idd)(xkp)
于是整体的目标函数关于 p p p 导数为:

∂ ∑ k = 1 n f k 2 ∂ p = ∑ k = 1 n ( − 2 ) ( I − d ⊤ ) ( x k − p ) , = ( − 2 ) ( I − d d ⊤ ) ∑ k = 1 n ( x k − p ) . \begin{aligned} \frac{\partial \sum_{k=1}^{n} f_{k}^{2}}{\partial \boldsymbol{p}} & =\sum_{k=1}^{n}(-2)\left(\boldsymbol{I}-\boldsymbol{d}^{\top}\right)\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right), \\ & =(-2)\left(\boldsymbol{I}-\boldsymbol{d} \boldsymbol{d}^{\top}\right) \sum_{k=1}^{n}\left(\boldsymbol{x}_{k}-\boldsymbol{p}\right) . \end{aligned} pk=1nfk2=k=1n(2)(Id)(xkp),=(2)(Idd)k=1n(xkp).
为了求最小二乘的极值, 令它等于零, 则得到:

p = 1 n ∑ k = 1 n x k , \boldsymbol{p}=\frac{1}{n} \sum_{k=1}^{n} \boldsymbol{x}_{k}, p=n1k=1nxk,
说明 p p p 应该取点云的中心。于是, 我们可以先确定 p p p , 然后再考虑 d ∘ d_{\circ} d 此时 p p p 已经被求解出来, 不 妨记 y k = x k − p \boldsymbol{y}_{k}=\boldsymbol{x}_{k}-\boldsymbol{p} yk=xkp , 视 y k \boldsymbol{y}_{k} yk 为已知量, 对误差项进行简化:

f k 2 = y k ⊤ y k − d ⊤ y k y k ⊤ d f_{k}^{2}=\boldsymbol{y}_{k}^{\top} \boldsymbol{y}_{k}-\boldsymbol{d}^{\top} \boldsymbol{y}_{k} \boldsymbol{y}_{k}^{\top} \boldsymbol{d} fk2=ykykdykykd
不难看出第一个误差项并不含 d \boldsymbol{d} d , 如何取 d \boldsymbol{d} d 并不影响它, 可以舍去。而第二项求最小化相当 于去掉负号后, 求最大化:

d ∗ = arg ⁡ max ⁡ d ∑ k = 1 n d ⊤ y k y k ⊤ d = ∑ k = 1 n ∥ y k ⊤ d ∥ 2 2 \boldsymbol{d}^{*}=\arg \max _{\boldsymbol{d}} \sum_{k=1}^{n} \boldsymbol{d}^{\top} \boldsymbol{y}_{k} \boldsymbol{y}_{k}^{\top} \boldsymbol{d}=\sum_{k=1}^{n}\left\|\boldsymbol{y}_{k}^{\top} \boldsymbol{d}\right\|_{2}^{2} d=argdmaxk=1ndykykd=k=1n ykd 22
如果记:

A = [ y 1 ⊤ ⋯ y n ⊤ ] , \boldsymbol{A}=\left[\begin{array}{c} \boldsymbol{y}_{1}^{\top} \\ \cdots \\ \boldsymbol{y}_{n}^{\top} \end{array}\right], A= y1yn ,
\quad 那么该问题变为:

d ∗ = arg ⁡ max ⁡ d ∥ A d ∥ 2 2 . \boldsymbol{d}^{*}=\arg \max _{\boldsymbol{d}}\|\boldsymbol{A} \boldsymbol{d}\|_{2}^{2} . d=argdmaxAd22.
\quad 这个问题与平面拟合很相似, 无非是把最小化变成了最大化。对于平面拟合, 我们求这个问题 的最小化; 对于直线拟合, 则求其最大值。按照前文的讨论, 取 d \boldsymbol{d} d 为最小特征值或者奇异值向量, 就得到该问题的最小化解;反之, 求取最大特征值向量时,就得到最大化解。于是该问题的解应该 取 d \boldsymbol{d} d A \boldsymbol{A} A 的最大右奇异向量, 或者 A ⊤ A \boldsymbol{A}^{\top} \boldsymbol{A} AA 的最大特征值对应的特征向量。

你可能感兴趣的:(自动驾驶中的SLAM技术,机器学习,算法,自动驾驶中的SLAM技术,SLAM,自动驾驶)