第05讲 系统辨识-处理有色噪声扰动最小二乘类方法_第1页
第05讲 系统辨识-处理有色噪声扰动最小二乘类方法_第2页
第05讲 系统辨识-处理有色噪声扰动最小二乘类方法_第3页
第05讲 系统辨识-处理有色噪声扰动最小二乘类方法_第4页
第05讲 系统辨识-处理有色噪声扰动最小二乘类方法_第5页
已阅读5页,还剩84页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

系统辨识篇目录(1/1)系统辨识篇❏第01讲系统辨识概论❏第02讲理论知识准备❏第03讲最小二乘法❏第04讲递推最小二乘法❏第05讲处理有色噪声扰动的最小二乘类方法❏第06讲随机逼近法❏第07讲多输入多输出系统辨识❏第08讲辨识算法比较❏第09讲系统辨识研究的发展与问题第五讲处理有色噪声扰动的LS类方法(1/3)第五讲

处理有色噪声扰动的最小二乘类方法❏由上一讲中所讨论的LS估计的统计特性可知,在动态系统的参数估计中,LS法仅当随机扰动为零均值的白噪声时,才能保证得到无偏一致的估计值.在实际工程和社会系统的辨识中,随机扰动w(k)只是各种系统内外扰动和结构建模误差等因素的综合反映.因此,并不能保证随机扰动为统计独立的白噪声.故,实际系统辨识时,并不能保证LS估计值为无偏一致估计值.第五讲处理有色噪声扰动的LS类方法(2/3)❏从本讲开始,我们将讨论具有随机扰动为相关性扰动(有色噪声)的动态系统的无偏一致的参数估计问题,具体的LS类方法有增广最小二乘法(Extended

Least-square

Method,ELS)广义最小二乘法(Generalized

Least-square

Method,GLS)辅助变量法(Instrumental

Variables

Method,IV)等.其它无偏参数估计算法还有多步最小二乘法偏差补偿最小二乘法第五讲处理有色噪声扰动的LS类方法(3/3)❏这些不同的处理有色噪声的辨识方法主要是针对不同的有色噪声的特性、有色噪声的不同模型表达、以及不同的辨识要求提出的.下面就分别讨论:增广最小二乘法(ELS)广义最小二乘法(GLS)辅助变量法(IV)其它方法可参阅其它教材和文献.1.ELS法(1/19)1.增广最小二乘法❏考虑如下SISO随机离散系统A(z-1)y(k)=B(z-1)u(k)+v(k)(1)其中y(k),u(k)和v(k)分别为系统的输出、输入和相关的随机扰动;

对所考虑的模型的相关随机扰动v(k),一般假定其为平稳相关序列.1.ELS法(2/19)

由第二讲中的关于有色噪声的结论1和假设2可知,平稳的相关扰动v(k)可被建模如下(2)❏

v(k)=C(z-1)w(k)其中w(k)为白噪声序列;√C(z-1)为未知的、稳定的、有限阶的线性滤波器,并可表示为如下首一多项式因此,由系统模型(1)和噪声模型(2),可得如下表示

A(z-1)y(k)=B(z-1)u(k)+C(z-1)w(k)1.ELS法(3/19)当假定噪声w(k)可测已知时,上式又可表示为如下自回归方程y(k)=

t(k-1)q+w(k)(3)其中❏A(z-1)y(k)=B(z-1)u(k)+C(z-1)w(k)1.ELS法(4/19)❏当上述观测数据向量

(k-1)精确已知时,利用前面讨论的成批或RLS法可求得回归参数向量

的LS估计值.但是,实际上上述数据向量

(k-1)中包含有不可测的噪声量w(k-1),...,w(k-nc),因此对自回归式(3)并不能直接用LS估计方法.为此,引入通过在递推参数估计过程中在线估计噪声w(k)以实现模型参数在线递推估计的ELS法.1.ELS法(5/19)ELS法的思想就是:√利用该参数估计值来在线估计白噪声w(k-i)的值(k-以替代数据向量 (k-1)中的白噪声w(k-i),√然后进行下一步的参数估计.√在递推估计过程中,假设当前或前一步的在线参数估计值已相当程度可用的前提下,1.ELS法(6/19)❏噪声w(k)的具体的估计算法是如下的事后估计或事前估计算法:❏

其中

^(k-1)为数据向量

(k-1)的如下在线估计值1.ELS法(7/19)❏因此,基于渐消记忆的RLS估计算法可得如下递推的ELS法❏其中加权因子l为1时就为普通的ELS法.√

上述ELS辨识实际上是

的参数估计和噪声wk的估计交替进行,计算顺序为:1.ELS法(8/19)❏上述分析过程表明,ELS法是LS法的一种简单推广.它只是扩充了参数向量q和数据向量

(k)的维数,也同时辨识噪声模型.就这种意义上说,可称之为ELS法.值得指出的是,ELS法虽然可同时得到噪声模型的参数估计,但其收敛过程却比过程模型A(z-1)和B(z-1)的估计值的收敛慢许多.√

从实用角度来说,噪声模型C(z-1)的阶次不宜取得太高.1.ELS法(9/19)--ELS法计算步骤❏综上所述,ELS法的基本计算步骤可总结如下确定被辨识系统模型的结构,以及多项式A(z-1)、B(z-1)和C(z-1)的阶次;设定递推参数初值

^(0),P(-1),w^(0);采样获取新的观测数据y(k)和u(k),并组成观测数据向量

^(k-1);用式(5)~(7)所示的ELS法计算当前参数递推估计值;用(4)式计算白噪声w(k)的事后或事前在线估计值w^(k);循环次数k加1,然后转回到第3步继续循环.1.ELS法(10/19)--ELS法仿真程序❏下面给出针对随机线性离散系统(XARMA)的ELS在线辨识仿真程序伪代码./%第一步初始化输入系统阶次na,nb和nc,以及加权因子输入系统模型Az=[1

a1

a2…]和Bz=[0

b1

b2…];输入噪声模型Cz=[1

c1

c2…]输入系统输入信号u(k)的方差

u

、过程噪声w(k)的方差

w和输入输出测量噪声uw

yw1.ELS法(11/19)--ELS法仿真程序)/%第二步辨识仿真for

k=1:最大仿真步数{/%被控对象模型仿真(产生系统输入输出信号,即数据)yf[2:na+1]=yf[1:na];uf[2:nb+1]=uf[1:nb];wf[2:nc+1]=wf[1:nc];uf[1]=2*

u*(rand()-0.5);wf[1]=2*w*(rand()-0.5);yf[1]=-Az[2:na+1]*yf[2:na+1]+Bz[2:nb+1]*uf[2:nb+1]+Cz[1:nc+1]*wf[1:nc+1];1.ELS法(12/19)--ELS法仿真程序/%输入输出数据检测ub[1]=uf[1];yb[1]=yf[1];/%或模拟检测噪声%

ub[1]=uf[1]+2*uw*(rand()-0.5);%

yb[1]=yf[1]+2*yw*(rand()-0.5);/%在线递推辨识过程仿真=[-yb(2:na+1)

ub(2:nb+1)

wb(2:nc+1)];K=

P*

/(

+*P*

);=

+K*[yb(1)-*

];1.ELS法(13/19)--ELS法仿真程序wb[1]=yb(1)-

*

;yb[2:na+1]=yb[1:na];ub[2:nb+1]=ub[1:nb];wb[2:nc+1]=wb[1:nc];}也可采用事前估计♦+c1w(k-1)+c2w(k-2)(8)❏其它条件同第四讲中的例1.结果如下表所示.1.ELS法(14/19)—例1❏例1

考虑如图下所示的仿真对象,图中

w(k)是服从均值为零,方差为1的正态分布的不相关随机噪声;

输入信号u(k)采用伪随机二进制序列;通过控制w值来改变数据的噪信比.❏辨识中,选择如下模型结构❏y(k)+a1y(k-1)+a2y(k-2)=b1u(k-1)+b2u(k-2)+w(k)1.ELS法(15/19)表1计算机仿真结果(噪信比=23%,数据组数1000)参数a1a2b1b2c1c2真值-1.50.71.00.5-1.00.2估计值

=1-0.7110.9990.498-0.1191.4967220.90938估计值-0.6941.0660.550-0.336=0.981.4650060.977981.ELS法(16/19)❏递推辨识过程的辨识值如下图所示参数估计误差的平方和噪声估计误差❏遗忘因子=1时递推辨识结果(1)1.ELS法(17/19)参数估计误差的平方和噪声估计误差❏遗忘因子=1时递推辨识结果(2)1.ELS法(18/19)参数估计误差的平方和噪声估计误差❏遗忘因子=0.98时递推辨识结果(1)1.ELS法(19/19)参数估计误差的平方和噪声估计误差❏遗忘因子=0.98时递推辨识结果(2)2.GLS法(1/3)2.广义最小二乘法❏上一讲讨论了相关随机扰动v(k)可用C(z-1)w(k)建模情况下的参数估计问题.但有些相关扰动用C(z-1)w(k)来建模的话,线性滤波器

C(z-1)的阶次相当高,这加大了参数估计的工作量,也极大地影响了建模的精度和使用上的困难性.在此情况下,相关扰动v(k)可用如下方式建模(1)v(k)=w(k)/D(z-1)其中w(k)为零均值的白噪声;2.GLS法(2/3)√

1/D(z-1)为未知的、稳定的、有限阶的线性滤波器,且D(z-1)可表示为如下稳定的、阶次较低的首一多项式

因此,具有该类相关随机扰动的随机离散系统的数学模型为:❏

A(z-1)y(k)=B(z-1)u(k)+v(k)❏

=B(z-1)u(k)+w(k)/D(z-1)(2)2.GLS法(3/3)❏广义最小二乘(Generalized

Least-squares,GLS)法讨论的是可用模型(2)表示的随机离散系统的参数估计问题.下面,将分别讨论√√成批型和递推型GLS法的思想和算法,以及√√GLS仿真

GLS评述一、成批型GLS法(1/9)一、成批型GLS法❏成批型GLS法的基本思想是:先预选定一个线性滤波器Df(z-1)将模型中的输出y(k)、输入u(k)和有色噪声w(k)/D(z-1)白色化,即将模型A(z-1)y(k)=B(z-1)u(k)+w(k)/D(z-1)两边左乘线性滤波器Df(z-1)后,有B(z-1)[Df(z-1)u(k)]+w(k)A(z-1)[Df(z-1)y(k)]并记为A(z-1)yf(k)B(z-1)uf(k)+w(k)再对上述白色化后的模型中多项式A(z-1)和B(z-1)的系数进行LS估计;一、成批型GLS法(2/9)然后基于对A(z-1)和B(z-1)的估计,利用模型

A(z-1)y(k)=B(z-1)u(k)+v(k)来计算模型残差(相关噪声)v(k)的估计值再基于噪声模型D(z-1)v(k)=w(k)和相关噪声v(k)的估计值,利用LS法辨识D(z-1),并基于此修正选定的滤波器Df(z-1);如此循环往复地进行Df(z-1)的修正及A(z-1)和B(z-1)的

迭代估计,直到模型的估计残差满足给定的精度或者Df(z-1)、

A(z-1)和B(z-1)的变化量相对较小为止.一、成批型GLS法(3/9)—计算步骤❏上述成批型GLS法基本思想可用如下流程图图示.❏综上所述,成批型的GLS法的算法和计算步骤如下:

Step

1.确定被辨识系统模型的结构,以及多项式A(z-1)、

B(z-1)和D(z-1)的阶次;Step

2.选定稳定的初始滤波器Df(z-1);一、成批型GLS法(4/9)—计算步骤Step

3.采样获取新的观测数据y(k)和u(k);(3)(4)Step

4.基于滤波器Df(z-1),进行如下滤波计算yf(k)=Df(z-1)y(k)uf(k)=Df(z-1)u(k)Step

5.由(2)~(4)式,列成如下自回归方程:其中一、成批型GLS法(5/9)—计算步骤并由此得如下向量式的自回归方程组fYf=

f+W(6)其中➢Yf=[yf(1),

yf(2),

...,

yf(L)]➢W=[w(1),

w(2),

...,

w(L)]f=[

f(0),

f(1),

...,

f(L-1)]Step

6.用如下LS法计算θf参数估计值一、成批型GLS法(6/9)—计算步骤(k-1)

f+v(k)(8)Step

7.由(2)式有y(k)=其中(k-1)=[y(k-1),

…,

y(k-na)

u(k-1),

…,

u(k-nb)]

因此,基于(7)式的参数估计值f,计算相关扰动v(k)的估计值,即回归式(8)的如下估计残差一、成批型GLS法(7/9)—计算步骤

Step

8.由(1)式,可得如下关于相关扰动v(k)和白噪声w(k)的自回归方程其中(11)并由此得如下向量式的自回归方程组V=

vθv+W其中➢V=[v(1),

v(2),

...,

v(L)]τv=[

v(0),

v(1),

...,v(L-1)]τ

Step

9.选取上一步估计得的D(z-1)的估计值作进行系统白色化处理的线性滤波器Df(z-1).

若模型的估计残差满足给定的精度或者Df(z-1)、A(z-1)和

B(z-1)的变化量相对较小则循环结束,否则返回第4步继续循环.一、成批型GLS法(8/9)—计算步骤

因此,将用式(9)计算好的相关扰动v(k)的估计值(k)来替代自回归方程组(11)的相关扰动v(k),则可得如下回归参数向量θv,即噪声模型D(z-1)的系数的LS估计值一、成批型GLS法(9/9)❏以上辨识过程表明,GLS法的思想是对输入输出数据先进行一次滤波预处理,然后利用普通LS法对滤波后的数据进行辨识,并反复迭代此过程.

可想而知,这种方法受滤波模型的好坏的影响较大,而在迭代过程中滤波模型的好坏也直接与系统模型辨识结果有

直接的关系.❏从优化理论的角度来说,GLS法其实属于非线性优化方法.

因此,难以避免出现非线性优化中的局部极值点情况,即该方法并不能保证得到的估计值是一致无偏的.这是GLS法的一个不太令人满意之处.二、递推型GLS法(1/6)二、递推GLS法❏递推GLS法的基本思想是与成批型LS法大致相同,所不同的是:由于所考虑的是递推估计,不能像成批型那样作反复迭代.

解决的方法是分别对(5)和(10)所示的两个模型的辨识设计两个递推估计算法,并在每一个递推步中,让它们依顺序递推一次.

随着递推过程的深入,将不断改进噪声模型D(z-1)的辨识结果,同时亦得到较佳的A(z-1)和B(z-1)的辨识结果.二、递推型GLS法(2/6)❏根据上述基本思想,有如下递推GLS估计算法:❏Step

1.确定被辨识系统模型的结构,以及多项式A(z-1)、

B(z-1)和D(z-1)的阶次;❏Step

2.选定递推参数初值f(0)和Pf(-1),v(0)和Pv(-1),以稳定的初始滤波器Df(z-1);❏Step

3.采样获取新的观测数据y(k)和u(k);❏Step

4.基于滤波器Df(z-1),分别由下式计算y(k),u(k)的滤波值yf(k)和uf(k);yf(k)=Df(z-1)y(k)uf(k)=Df(z-1)u(k)二、递推型GLS法(3/6)❏Step

5.构造观测数据向量φf(k-1)❏并依如下RLS法估计多项式A(z-1)和B(z-1)的系数,即回归参数向量θf二、递推型GLS法(4/6)❏Step

6.基于式❏计算相关扰动v(k)的估计值,并构造观测数据向量φv(k-1).二、递推型GLS法(5/6)❏Step

7.依如下RLS法估计多项式D(z-1)的系数,即回归参数向量θv❏Step

8.选取上一步估计得的D(z-1)的估计值作进行系统白色化处理的线性滤波器Df(z-1).√将循环次数加1,返回第3步继续循环递推辨识.三、GLS仿真(1/14)三、广义最小二乘法仿真❏考虑如下有色噪声扰动的随机线性离散系统的GLS在线辨识仿真程序伪代码.三、GLS仿真(2/14)%第一步初始化输入系统阶次na,nb和nd,以及加权因子输入系统模型Az=[1

a1

a2…]和Bz=[0

b1

b2…];w输入噪声模型Dz=[1

d1

d2…]输入系统输入信号u(k)的方差

u和噪声w(k)的方差设定系统变量初始值:yf[1:na+1]=0;

uf[1:nb+1]=0;vf[1:nd+1]=0;三、GLS仿真(3/14)%第二步辨识仿真for

k=1:最大仿真步数{/%被控对象模型仿真(产生系统输入输出信号,即数据)yf[2:na+1]=yf[1:na];uf[2:nb+1]=uf[1:nb];vf[2:nd+1]=vf[1:nd];uf[1]=2*u*(rand()-0.5);wf=2*w*(rand()-0.5);三、GLS仿真(4/14)%输入输出数据检测ub[1]=uf[1];yb[1]=yf[1];%输入输出滤波ubf[1]=Dze(1:nd+1)*ub(1:nd+1);ybf[1]=Dze(1:nd+1)*yb(1:nd+1);%在线递推辨识系统模型_yu=[-ybf(2:na+1)

ubf(2:nb+1)];K_yu=P_yu*

_yu/(

+

_yu

*P_yu*

_yu);三、GLS仿真(5/14)%在线噪声估计vb[1]=y(1)+

_yu[1:na]*yb(2:na+1)-

_yu[na+1:na+nb]*ub(2:nb+1);%在线递推噪声模型_v=[-vb(2:nd+1)];K_v=P_v*

_v/(

+

_v_v=

_v+K_v*[vf(1)-*P_v*

_v);_v

*_v];P_v=[I-K_v*

_v

]*P_v/

;修正矩阵P_v;输出在线递推参数估计值

_yu,

_v;三、GLS仿真(6/14)%数据移位yb[2:na+1]=yb[1:na];ub[2:nb+1]=ub[1:nb];ybf[2:na+1]=ybf[1:na];ubf[2:nb+1]=ubf[1:nb];vf[2:nd+1]=vf[1:nd];}三、GLS仿真(7/14)❏例1

本例中的仿真对象、实验条件与第四讲中例1相同,模型结构选择如下❏

y(k)+a1y(k-1)+a2y(k-2)=b1u(k-1)+b2u(k-2)+v(k)❏

v(k)+d1v(k-1)+d2v(k-2)=w(k)(19)(20)❏仿真结果如表1所示.三、GLS仿真(8/14)❏表1计算机仿真结果参数a1a2b1b2d1d2真值-1.50.71.00.5-1.00.2噪信比=73%初始白化滤波器Df=1仿真1-1.49900.70170.99970.5003-1.00560.2002仿真2-1.51460.71091.00300.4869-0.99430.1996噪信比=73%初始白化滤波器D

=1+0.5z-1-仿真1-1.43840.60300.98700.5271-1.14260.4060--三、GLS仿真(9/14)❏递推辨识过程的辨识值如下图所示参数估计误差的平方和噪声估计误差❏噪信比=73%,初始白化滤波器Df=1时递推辨识结果(1)三、GLS仿真(10/14)参数估计误差的平方和噪声估计误差❏噪信比=73%,初始白化滤波器Df=1时递推辨识结果(2)三、GLS仿真(11/14)参数估计误差的平方和噪声估计误差❏噪信比=73%,初始白化滤波器Df=1+0.5z-1-0.5z-2时递推辨识结果(1)三、GLS仿真(12/14)参数估计误差的平方和噪声估计误差❏噪信比=73%,初始白化滤波器Df=1+0.5z-1-0.5z-2时递推辨识结果(2)三、GLS仿真(13/14)参数估计误差的平方和噪声估计误差❏噪信比=23%,初始白化滤波器Df=1时递推辨识结果(1)三、GLS仿真(14/14)参数估计误差的平方和噪声估计误差❏噪信比=23%,初始白化滤波器Df=1时递推辨识结果(2)三、GLS评述(1/1)❏三、GLS评述❏

对GLS算法,有如下评述:有色干扰下估计精度较高迭代收敛较快,但是收敛性未得到证明能同时得到过程参数和噪声参数的估计计算量大,费机时3.IV法(1/2)3.辅助变量法❏上两讲分别讨论了同时辨识系统模型和噪声模型的ELS法和GLS法.在有些建模及其模型的运用问题中,并不需要知道噪声模型,即不需要对噪声建模(辨识).此时,若采用ELS法和GLS法来辨识,需花费较多的计算时间,而且辨识的参数越多则辨识的精度和效果越差.这一点,GLS法尤其突出.3.IV法(2/2)❏本讲讨论有相关随机扰动时的随机离散系统参数估计的辅助变量(Instrument

Variable,IV)法.该方法不需要辨识系统的噪声模型,只要辅助系统选择得恰当,便可获得较高精度的无偏一致估计.本讲介绍的主要内容为:√√√√成批型算法辅助变量的选择递推型算法IV法的评价一、成批型算法(1/6)一、成批型算法❏考虑如下自回归方程的一致辨识问题y(k)=

(k-1) +w(k),

k=1,2,...,L(1)或LYL=

+WL(2)其中对扰动量w(k)未加白噪声的假定,其它符号与第三讲一致.下面先考察一般LS法的参数辨识值的一致收敛性.一、成批型算法(2/6)❏由第三讲的提出的一般LS估计式❏有一、成批型算法(3/6)由式(3)可知,欲获得无偏一致的参数估计值,若,则f(xk)

f(

)依据Frechek定理:若随机序列xk则由条件(4)与(5),有➢LS0即LS估计为无偏估计.一、成批型算法(4/6)但,当w(k)不为白噪声时,条件√并不能保证成立,相应的LS估计值√亦不能保证为无偏一致的.因此下面的问题是:√如何在有色噪声干扰条件下得到无偏估计?一、成批型算法(4/6)❏为了对w(k)不为白噪声时,可获得q的无偏一致估计值,定义一个如下辅助观测数据矩阵L*

=[

*(0),*(1),

…,*(L-1)](6)其中辅助变量矩阵须满足一、成批型算法(5/6)因此,使得对不定(不相容)方程组YL=L(9)和回归方程YL=L+WL可获得如下IV解

可见,只要选择适当的辅助变量,使之满足上述的两个条件,

IV估计值就可以是无偏一致的.IV估计法的关键在于如何具体构造出辅助变量矩阵L*

.一、成批型算法(6/6)当辅助变量矩阵满足条件(7)和(8)时,则依有据Frechek定理与条件(7)和(8)二、辅助变量的选择(1/9)二、辅助变量的选择(❏IV法的关键是选择适当的辅助变量使得条件(7)和(8)得到满足.如果采用下图所示的输出x(k)作为辅助变量,置*(k-1)=[x(k-1),

...,

x(k-na),

u(k-1),

...,

u(k-nb)]τ

那么,当u(k)为高阶持续激励信号时,条件(7)必定满足.

又因x(k)只与u(k)有关,也就是说与噪声无关,故条件(8)也满足.二、辅助变量的选择(2/9)❏人们已经得出几种不同的方案,要严格证明它们满足上述条件是很难的,但是在实际应用中已经取得很好的结果.常用的辅助变量选择方法有:√自适应滤波√纯滞后√Tally原理二、辅助变量的选择(3/9)--自适应滤波A.自适应滤波❏当把上图所示的辅助系统模型看成是自适应滤波器时,辅助变量可按如下关系生成或求得x(k)=

*(k)

^(k)(13)或x(k)=

(k)=(1-*(k)

(k))

(k-1)+

^(k-d),(14a)取0.01~0.1;

d取0~10

(其中

^(k)表示k时刻的IV参数估计值,它可由递推算法给出.二、辅助变量的选择(4/9)--自适应滤波❏下面简单分析一下上述自适应滤波法所选择的辅助变量与噪声变量的相关性。对

*(k)与噪声w(k)的相关性分析如下*(k)与√因此,经过层层传递(每次传递相关性小于1),噪声w(k)的相关性将变得非常小。当噪声w(k)与输入u(k)无关时,且u(k)为高阶持续激励信号时,可以证明选用式(13)和(14)作为辅助变量以较大概率

满足上述两个条件[Soderstrom,1974].二、辅助变量的选择(5/9)--纯滞后B.纯滞后❏当图1所示的辅助系统模型选为纯滞后环节时,辅助变量取作x(k)=u(k-d)(15)其中d

nb,nb为多项式B(z-1)的阶次.这时辅助变量向量

*(k-1)可写成*(k-1)=[u(k-d-1),

...,

u(k-d-na),

u(k-1),

...,

u(二、辅助变量的选择(6/9)--纯滞后❏值得指出的是,只有u(k)为高阶持续激励信号时,上述选取的*(k-1)的列之间现行无关,收敛条件(7)才能满足。此外,当输入u(k)与噪声w(k)无关,

*(k)与噪声w(k)统无关。因此u(k)为高阶持续激励信号时,上述选取的

*(k)满足上述辅助变量可满足上述两个条件.二、辅助变量的选择(7/9)--Tally原理C.Tally原理❏如果相关噪声的模型可以看成为❏时,其中dnc,则辅助变量可取作❏

x(k)=y(k-d)(16)❏即❏

*(k-1)=[y(k-d-1),

...,

y(k-d-na),

u(k-1),

...,

u(k-nb)]τ二、辅助变量的选择(8/9)--Tally原理❏下面简单分析一下Tally原理所选择的辅助变量与噪声变量的相关性。对

*(k)与噪声w(k)的相关性分析如下√

因此,经过层层传递(每次传递相关性小于1),

*(k)与噪声w(k)的相关性将变得非常小。当噪声w(k)与输入u(k)无关时,且u(k)为高阶持续激励信号时,可以证明Tally原理所选择的辅助变量以较大概率满足上述两个条件[方崇智等,1988].二、辅助变量的选择(9/9)❏在上述3种选择辅助变量方法中,自适应滤波法辨识收敛快,精度高,递推辨识结果平滑,波动小。√

Tally原理法次之。但纯滞后法辨识收敛慢,精度低,数据增多对精度提高效果不显著;√

再之,递推辨识结果波动大,难于达到控制的要求。三、递推型算法(1/15)三、递推型算法❏下面讨论IV参数估计算法(10)的递推算法.类似于RLS法的推导,由成批型IV法可得如下递推IV算法❏其中P(k-1)和K(k-1)的定义式为❏

K(k-1)=P(k-1)*(k-1)(21)三、递推型算法(2/15)❏综上所述,递推IV法的基本计算步骤可总结如下❏

确定被辨识系统模型的结构,以及多项式A(z-1)和B(z-1)的阶次;❏

确定或设计所采用的辅助变量系统;❏

设定递推参数初值

^(0),P(-1);❏量❏采样获取新的观测数据y(k)和u(k),并组成观测数据向(k-1);计算辅助变量x(k),并组成辅助变量观测数据向量*(k-1);❏

用式(17)~(19)所示的递推IV法计算当前参数递推估计值;❏

循环次数k加1,然后转回到第4步继续循环.三、递推型算法(3/15)❏下面给出针对随机线性离散系统(XARMA)的ELS在线辨识仿真程序伪代码.%第一步初始化输入系统阶次na,nb和nc,以及辅助变量方法变量IV_method,辅助变量系统滞后IV-d,加权因子输入系统模型Az=[1

a1

a2…]和Bz=[0

b1

b2…];w输入噪声模型Cz=[1

c1

c2…]输入系统输入信号u(k)的方差

u和噪声w(k)的方差设定系统变量初始值:yf[1:na+1]=0;

uf[1:nb+

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论