最优控制问题学习笔记1----绪论

文章目录

  • 最优控制问题实例
  • 最优控制问题的一般提法

最优控制是系统设计的一种方法,它所研究的中心问题是如何选择控制信号才能保证控制系统的性能在某种意义下最优。
最优控制理论所要解决的问题是:按照控制对象的动态特性,选择一个容许控制,使得被控对象按照技术要求运转,同时使性能指标达到最优值。

最优控制问题实例

Example 1
设有一物体M,作垂直升降运动。假定物体M内部有一控制器,可以产生一个作用力 u ( t ) u(t) u(t)控制物体上下运动。作用力满足约束条件 ∣ u ( t ) ∣ |u(t)| u(t) ≤ C \leq C C.
若物体在 t = t 0 t=t_0 t=t0 时, 离地面的高度为 h 0 h_0 h0, 垂直运动的速度为 v 0 v_0 v0。寻找作用力 u ( t ) u(t) u(t), 使物体最快地到达地面,且到达地面的速度为零。

Modeling
t t t 时刻物体 M 距离地面的距离为 h ( t ) h(t) h(t), 物体运动速度为 v ( t ) v(t) v(t). 设状态变量为 x ( t ) \bm{x}(t) x(t)。令
x 1 ( t ) = h ( t ) x_1(t)=h(t) x1(t)=h(t) x 2 ( t ) = h ˙ ( t ) = v ( t ) x_2(t)=\dot{h}(t)=v(t) x2(t)=h˙(t)=v(t)则系统的受控方程为
{ d x 1 ( t ) d t = x 2 ( t ) d x 2 ( t ) d t = u ( t ) m − g \begin{cases} \frac{dx_1(t)}{dt}=x_2(t)\\ \frac{dx_2(t)}{dt}=\frac{u(t)}{m}-g \end{cases} {dtdx1(t)=x2(t)dtdx2(t)=mu(t)g初始条件为
x 1 ( t 0 ) = h 0 x_1(t_0)=h_0 x1(t0)=h0, x 2 ( t 0 ) = v 0 x_2(t_0)=v_0 x2(t0)=v0
问题即转化为,寻找一个受控控制 u ( t ) ≤ C u(t)\leq C u(t)C,使得物体M从状态 ( h 0 , v 0 ) (h_0,v_0) (h0,v0) 以最快的时间变为状态 ( 0 , 0 ) (0,0) (0,0)
设变为目的状态的时刻为 t f t_f tf, 则上述问题可转化为寻找满足条件的最优控制 u ( t ) u(t) u(t), 使性能指标
J = ∫ t 0 t f d t = t f − t 0 J=\displaystyle \int_{t_0}^{t_f}dt=t_f-t_0 J=t0tfdt=tft0取得极小值,且满足如下约束条件 x 1 ( t f ) = 0 , x 2 ( t f ) = 0 x_1(t_f)=0, x_2(t_f)=0 x1(tf)=0,x2(tf)=0

最优控制问题的一般提法

从上例中我们可以看出,用数学语言描述最优控制问题,主要包括以下几个成分:
(1)受控系统的数学模型 x ˙ ( t ) = f [ x ( t ) , u ( t ) , t ] \dot{x}(t)=f[x(t), u(t), t] x˙(t)=f[x(t),u(t),t]
(2)受控系统的始端与终端条件,即状态方程的边界条件。对最优控制问题始端条件通常是已知的: x ( t 0 ) = x 0 x(t_0)=x_0 x(t0)=x0, 终端条件可以用一个目标集来表示:
Ω f = { x ( t f ) ; g 1 [ x ( t f ) ] = 0 , g 2 [ x ( t f ) ] ≤ 0 } \Omega_f=\{x(t_f);g_1[x(t_f)]=0,g_2[x(t_f)]\leq0\} Ωf={x(tf);g1[x(tf)]=0,g2[x(tf)]0}
(3)容许控制:控制量受客观条件限制所得的取值范围
U = { u ( t ) ; φ ( x , u ) ≤ 0 } , u ( t ) ∈ U U=\{u(t); \varphi(x,u)\leq0\}, u(t)\in U U={u(t);φ(x,u)0},u(t)U.
其中性能指标函数可由以下几种分类
(1)积分型性能指标,又称为Langrange型性能指标: J = ∫ t 0 t f L [ x ( t ) , u ( t ) , t ] d t J=\displaystyle\int_{t_0}^{t_f}L[x(t), u(t), t]dt J=t0tfL[x(t),u(t),t]dt反映控制过程中对系统性能的要求。
(2)终值型性能指标,又称为Meyer型性能指标:
J = Φ [ x ( t f ) , t f ] J=\Phi[x(t_f),t_f] J=Φ[x(tf),tf]反映系统状态在终端时刻的性能。
(3)复合型性能指标,又称Bolza型性能指标:
J = Φ [ x ( t f ) , t f ] + ∫ t 0 t f L [ x ( t ) , u ( t ) , t ] d t J=\Phi[x(t_f),t_f]+\displaystyle\int_{t_0}^{t_f}L[x(t), u(t), t]dt J=Φ[x(tf),tf]+t0tfL[x(t),u(t),t]dt反映控制过程和系统状态在终端时刻的性能。
Φ [ x ( t f ) , t f ] \Phi[x(t_f),t_f] Φ[x(tf),tf] L [ x ( t ) , u ( t ) , t ] L[x(t), u(t), t] L[x(t),u(t),t] 为二次型函数,则复合型性能指标可表示为二次型性能指标:
J = 1 2 x T ( t f ) P x ( t f ) + 1 2 ∫ t 0 t f x T ( t ) Q x ( t ) + u T ( t ) R u ( t ) d t . J=\frac{1}{2}x^T(t_f)Px(t_f)+\frac{1}{2}\displaystyle\int_{t_0}^{t_f}x^T(t)Qx(t)+u^T(t)Ru(t)dt. J=21xT(tf)Px(tf)+21t0tfxT(t)Qx(t)+uT(t)Ru(t)dt.
从数学方面看,最优控制问题就是求解一类带有约束条件的泛函极值问题,因此这是一个变分学的问题。然而变分理论只是解决容许控制无限制的一类最优控制问题,通常在工程实践中受控对象要求具有一定的范围或满足一定的条件,像这类要求容许控制的最优控制问题通常使用两种最富成效的方法进行解决,一种是庞特利雅金等人在1956至1958年间逐步创立的极大值原理;另一种是美国学者贝尔曼在1953至1958年间逐步创立的动态规划方法,该方法是依据最优性原理发展了变分学中的哈密顿-雅克比理论,从而构成了动态规划。

最优控制问题是在多种约束条件下寻找最优的控制 u ∗ ( t ) u^*(t) u(t)(这里的最优控制不受任何约束限制)使某个性能指标取得极小值。由于 J J J 为函数 x ( t ) x(t) x(t) u ( t ) u(t) u(t) 的函数,即泛函。故而最优控制问题可归结为求某个泛函的条件极值问题。

你可能感兴趣的:(最优控制,学习)