LQR控制器——简单实现与仿真

Posted 王张飞

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LQR控制器——简单实现与仿真相关的知识,希望对你有一定的参考价值。

对B站一位良心up主的视频学习总结
安利:https://www.bilibili.com/video/BV1RW411q7FD/?spm_id_from=trigger_reload

对于可镇定的线性系统: x ˙ = A x + B u \\dotx=Ax+Bu x˙=Ax+Bu, u = − k x u=-kx u=−kx
写成闭环形式,也就是 x ˙ = A c l x \\dotx=A_clx x˙=Acl​x
我们的做法是通过选择反馈增益k来改变闭环矩阵 A c l A_cl Acl​ 的特征值,从而控制系统的表现。
那么

  • 什么样的反馈增益k才是最好的呢?

在优化理论中,引入cost function的概念,来帮助选择反馈增益k。

找到一个k,使得在满足镇定系统的同时,最小化cost function。

m i n J = ∫ 0 ∞ [ x T Q x + u T R u ] d t min J=\\int_0\\infty[xTQx+u^TRu]dt minJ=∫0∞​[xTQx+uTRu]dt
这里,矩阵Q和R都是对角正定矩阵,他们的每一个对角元素的值都代表着对每一个对应的状态 x i ≠ 0 x_i\\neq 0 xi​​=0和输入 u i ≠ 0 u_i\\neq 0 ui​​=0的惩罚。

  • 矩阵对角元素的值越大,表示对该状态或输入的惩罚越厉害。那么体现在最终系统的表现上就是,该状态或输入的值越小。

视频中,老师对倒立摆进行建模,得到其状态空间方程下的系统矩阵:A,B

然后利用simulink对其进行仿真:(这里目的主要是学习一下simulink仿真时,如何从0进行建模与simulink仿真)

第一次选择Q=[100 0; 0 1]; R=.01,在MATLAB中用

k=lqr(A,B,Q,R)

命令得到该cost function下的最有反馈增益k。其内部主要是通过求解Riccati方程得到k。

得到如下仿真曲线

可以看到状态最终能够被镇定到0,但是控制输入u太大。
那么接下来,可以尝试将和u相关的矩阵R的值给大一点。对u的值惩罚大,从而得到的仿真结果中,u的计算结果就相对要小一点。同时将Q矩阵中的元素值给小一点,表示不是很关心状态的收敛速度。

第二次选择Q=[1 0; 0 1]; R=100,在MATLAB中用

k=lqr(A,B,Q,R)

得到新的k,仿真得到如下对照曲线。(为了便于观察,复制了一份刚刚的系统,作为对照)

可以看到,蓝色的线条是第二组的仿真结果。收敛速度变慢了,但是控制输入u的值相对的变小了。这样更加符合实际情况,因为有时会考虑到执行器饱和的问题。

总结

这里主要是复习一下LQR的相关知识,并且系统的学习一下,对一个实际的问题进行建模、simulink仿真的过程。
simulink搭建一个模型的时候,主要考虑以下步骤:

  • 将状态空间方程分别写成单个状态的表达式
  • 用n个积分器由 x ˙ \\dotx x˙得到 x x x,从而得到各个状态,注意积分器要置初值,默认0
  • 搭建控制输入u,构成闭环系统
  • 必要时,对模块化的子系统创建subsystem,便于观察。

以上是关于LQR控制器——简单实现与仿真的主要内容,如果未能解决你的问题,请参考以下文章

第十一周仿真作业

第十一周仿真作业

汽车发动机开环和闭环的区别?

lqr控制和模糊控制三级倒立摆

关于用matlab仿真一级倒立摆的LQY控制的程序,大伙谁有帮忙提供一下,多谢了

第十一周读书笔记