现代信号处理 05 - 递推与线性预测
Posted Ciaran-byte
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了现代信号处理 05 - 递推与线性预测相关的知识,希望对你有一定的参考价值。
递推与线性预测 Recursive Linear Prediction
1. 线性预测引入
线性预测是要解决这样的问题。假设我们有n个随机变量,事实上,如果我们把随机变量的角标看做是时间,这就是一个随机过程,否则的话,就是一组随机变量
Z 1 , Z 2 , . . . Z n , Z n + 1 Z_1,Z_2,...Z_n,Z_{n+1} Z1,Z2,...Zn,Zn+1
现在我们希望能够利用前面的n个变量,通过线性的方法,去估计第n+1个变量,这就是线性预测问题
Z
=
(
Z
1
,
Z
2
,
.
.
.
Z
n
)
T
=
>
Z
n
+
1
Z=(Z_1,Z_2,...Z_n)^T => Z_{n+1}
Z=(Z1,Z2,...Zn)T=>Zn+1
事实上,研究随机过程,很大程度上就是为了进行线性预测。
我们定义一个参数α
α
=
(
α
1
,
.
.
.
,
α
n
)
T
\\alpha = (\\alpha_1,...,\\alpha_n)^T
α=(α1,...,αn)T
我们通过对Z进行线性组合来估计Zn+1
α T Z = ∑ k = 1 n α k Z n + 1 − k → Z n + 1 \\alpha^TZ = \\sum_{k=1}^n \\alpha_k Z_{n+1-k} \\rightarrow Z_{n+1} αTZ=k=1∑nαkZn+1−k→Zn+1
我们的优化条件这样的
m i n E ( Z n + 1 − ∑ k = 1 n α k Z n + 1 − k ) 2 minE(Z_{n+1}-\\sum_{k=1}^n \\alpha_k Z_{n+1-k})^2 minE(Zn+1−k=1∑nαkZn+1−k)2
注意这里只是将Zk的角标进行了倒转,不影响问题的本质
我们之前学过了正交性原理,这里的最优估计,就等价于所有的原材料与残差之间都是正交的
m i n E ( Z n + 1 − ∑ k = 1 n α k Z n + 1 − k ) 2 = > E ( Z n + 1 − k ∗ ( Z n + 1 − ∑ k = 1 n α k Z n + 1 − k ) ) = 0 k = 1 , 2 , . . . , n minE(Z_{n+1}-\\sum_{k=1}^n \\alpha_k Z_{n+1-k})^2 \\\\ =>E(Z_{n+1-k}*(Z_{n+1}-\\sum_{k=1}^n \\alpha_k Z_{n+1-k})) = 0 \\\\ k = 1,2,...,n minE(Zn+1−k=1∑nαkZn+1−k)2=>E(Zn+1−k∗(Zn+1−k=1∑nαkZn+1−k))=0k=1,2,...,n
因此,我们就有
= > E ( Z n + 1 − k ∗ Z n + 1 ) − ∑ i = 1 n α i E ( Z n + 1 − i ∗ Z n + 1 − k ) = 0 =>E(Z_{n+1-k}*Z_{n+1})-\\sum_{i=1}^n \\alpha_i E(Z_{n+1-i}*Z_{n+1-k}) = 0 =>E(Zn+1−k∗Zn+1)−i=1∑nαiE(Zn+1−i∗Zn+1−k)=0
这里我们假设Z是个平稳过程,因此Z的自相关就仅仅与下标的差(时间差)有关系
= > R Z ( − k ) − ∑ i = 1 n α i R Z ( − i + k ) = 0 => R_Z(-k)- \\sum_{i=1}^n \\alpha_i R_Z(-i+k) =0 =>RZ(−k)−i=1∑nαiRZ(−i+k)=0
因为相关函数是对称的
R Z ( − k ) = R Z ( k ) R_Z(-k) = R_Z(k) RZ(−k)=RZ(k)
所以有
R
Z
(
k
)
−
∑
i
=
1
n
α
i
R
Z
(
k
−
i
)
=
0
(
k
=
1
,
.
.
.
,
n
)
R_Z(k)- \\sum_{i=1}^n \\alpha_i R_Z(k-i) =0 \\quad (k=1,...,n)
RZ(k)−i=1∑nαiRZ(k−i)=0(k=1,...,n)
这个方程就Wiener-Hopf方程
我们来表示一下这个方程
(
R
(
0
)
R
(
1
)
.
.
.
R
(
n
−
1
)
以上是关于现代信号处理 05 - 递推与线性预测的主要内容,如果未能解决你的问题,请参考以下文章