自适应滤波器_第1页
自适应滤波器_第2页
自适应滤波器_第3页
自适应滤波器_第4页
自适应滤波器_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 LMS自适应算法LMS自适应滤波算法是一种广泛使用的算法,下面从LMS算法的结构和运算入手研究该算法。1 最小均方算法的结构和运算概述LMS算法是自适应滤波算法。一般来说,它包含两个基本过程:(1)滤波过程(filtering process)包括计算线性滤波器输出对输入信号的响应以及通过比较输出结果与期望响应产生估计误差。(2)自适应过程(adaptive process)根据估计误差自动调整滤波器参数。这两个过程一起工作组成一个反馈环,如图1.1所示。首先,我们有一个横向滤波器(围绕它构造LMS算法),该部件的作用在于完成滤波过程。其次,我们有一个对横向滤波器抽头权值进行自适应控制过程的

2、算法,即图1.1中标明的“自适应权值控制算法”部分。横向滤波器 u(n) (n) - 自适应权值控制算法 e(n)+ d(n)图1.1 自适应横向滤波结构图图1.1中u(n)表示输入信号值,表示输出信号估计值,输入信号通过滤波器后产生输出信号,将其与参考信号(或称期望响应)进行比较,形成误差信号。e(n)通过某种自适应算法对滤波器参数进行调整,最终使e(n)的均方值最小。在设计时不需要事先知道关于输入信号和噪声的统计特性的知识,它能够在自己的工作过程中逐渐“了解”或估计出所需的统计特性,并以此为依据自动调整自己的参数,最终达到最佳滤波效果。一旦输入信号的统计特性发生变化,它又能够跟踪这种变化,

3、使滤波器性能重新达到最佳。2最速下降概述最速下降算法是一种基于梯度的自适应方法,这种方法是理解各种基于梯度的自适应方法的基础。它可用反馈系统来表示,滤波器的计算是一步一步迭代进行的。在平稳过程这个特殊情况下,给定任意初始抽头权向量,问题的解将随迭代次数的增加而改善。值得一提是,在适当条件下,上述方法的解收敛于维纳解(即集平均误差曲面的极小点)而不需要求输入向量相关矩阵的逆矩阵。最速下降算法的的基本思想:考虑一个代价函数J(w),它是某个未知向量w的的连续可微函数。函数J(w)将w的元素映射为实数。这里,我们要寻找一个最优w使得它满足如下条件 J(w)J(w) 对所有的w (3.1)这是无约束最

4、优化的数学表示。特别适合于自适应滤波的一类无约束最优化算法基于局部迭代下降的思想:从某一初始猜想w(0)出发,产生一系列w(1),w (2)使得代价函数J(w (n)在算法的每一次迭代都是下降的,即J(w(n+1)<J(w(n) (3.2)其中w (n)是权向量的过去值,而w(n+1)是权向量的更新值。最速下降算法是迭代下降法的一种简单形式,该方法是沿最速下降方向(又称负梯度方向,即代价函数J(w)的梯度方向J(w)的反方向)连续调整权向量w。为方便起见,将梯度向量表示为 (3.3)因此,最速下降算法可以表示为w(n+1)=w(n)- 1/2*g(n) (3.4)其中n表示迭代进程,是正

5、长数,称为步长参数,1/2因子的引入是为了数学处理上的方便。在从n到n+1的迭代中,权向量的调整量为w(n)=w(n+1)-w(n) =-1/2*g(n) (3.5)为了证明最速下降算法满足式(4.2),在w(n)处进行一阶泰勒(Taylor)展开,得到J(w(n+1)J(w(n)+ (3.6)此式对于较小时是成立的。在式(4.6)中假设为复值向量,因为梯度向量也为复值向量,所以使用埃尔米特转置。将式(4.5)用到式(4.6)中,得到 J(w(n+1)J(w(n)- (3.7)这表明当为正数时,J(w(n+1)< J(w(n)。因此,随着n的增加,代价函数J(n)减小,当n=时,代价函数

6、趋于最小值J。最速下降算法应用于维纳滤波器考虑一个横向滤波器,其抽头输入为u(n),u(n-1),u(n-M+1),对应的抽头权值为w(n),w(n),w(n)。抽头输入是来自零均值、相关矩阵为R的广义平稳随机过程的抽样值。d(n)为滤波器的期望响应。在时刻n抽头输入向量表示为u(n),滤波器输出端期望响应的估计值为,通过比较期望响应d(n)及其估计值,可以得到一个估计误差,即 e(n)=d(n)- = d(n)-w(n)u(n) (3.8)这里w(n)u(n)是抽头权向量w(n)与抽头输入向量u(n)的内积。w(n)可进一步表示成 w(n)= w(n),w(n),w(n)同样,抽头输入向量u

7、(n)可表示为 u(n)= u(n),u(n-1),u(n-M+1) 如果抽头输入向量u(n)和期望响应d(n)是联合平稳的,此时均方误差或在时刻n的代价函数J(n)是抽头权向量的二次函数,于是可以得到 J(n)=Ee(n)e(n)把式(3.8)代入上式中,得 J(n)=-Eu(n)d(n)-Eu(n)d(n)w(n)+Eu(n)w(n) = (3.9)其中, =目标函数d(n)的方差。 =抽头输入向量u(n)与期望响应d(n)的互相关向量。 R=抽头输入向量u(n)的相关矩阵。又梯度向量可以写为J(n)= (3.10) =-2p+2Rw(n)其中在列向量中和分别是代价函数J(n)对第k个抽头

8、权值,w(n)的实部和虚部的偏导数,k =1,2,3,M-1。对最速下降算法应用而言,假设式(3.10)中相关矩阵R和互相关向量p已知,则对于给定的抽头权向量w(n),可以计算出梯度向量J(n)。因此,将式(3.10)代入式(3.4),可得更新的抽头向量, w(n+1)为w(n+1)= w(n)+p-Rw(n) n=0,1,2, (3.11)它描述了维纳滤波中最速下降法的数学表达式。 根据式(3.11),在时刻n+1应用到抽头权向量的调整量等于p-Rw(n)。这个调整量也可以表示成抽头输入向量u(n)和估计误差内积期望的倍。这表明可以用一组互相关器来计算抽头权向量w(n)的较正量,较正量用,

9、,表示。3 LMS自适应滤波算法最小均方(LMS,least-mean-square)自适应滤波算法由Widrow和Hof提出的最小均方误差(LMS )算法,它是一种搜索算法,通过对目标函数进行适当的调整,简化了对梯度向量的计算。因而具有计算量小、易于实现等优点而在实践中被广泛采用。同时通过对外部环境的自适应,它也能够提供很高的性能。LMS算法的主要特征包括低计算复杂度,在平稳环境中的收敛性,该算法大体上可以描述为:(抽头权向量更新值)=(老的抽头权向量值)+(学习速率参数)(抽头输入)(误差信号)其中误差信号定义为期望信号与抽头输入向量所产生实际输出向量之差。在LMS算法的理论体系中,最优化

10、方法中的最陡下降法是随机梯度信息处理的一种递归算法。在未知误差性能的情况下,它可以寻求误差曲面的最小点是性能分析的重要基础。但是,最陡下降算法需要准确测得每次迭代的梯度矢量,而实际上梯度值只能根据观测数据进行估计。为了减少计算复杂度和缩短自适应收敛时间,许多学者对这方面的新算法进行了研究。1960年,美国斯坦福大学的Widrow等提出了最小均方算法(LMS算法)。如果可以精确测量每一次迭代的梯度向量J(n),而且如果步长参数合适选取,则由最速下降算法获得的抽头权向量将会收敛于维纳解。然而事实上梯度向量的精确测量是不可能的,因为它需要抽头输入的相关矩阵R以及抽头输入与期望响应之间的互相关向量p的

11、先验知识。因此当该算法运行在未知环境时,必须根据可用数据估计梯度向量。为了推导梯度向量的估计方法,最明显的策略是将相关矩阵R和抽头输入与期望响应之间的互相关向量的估计代入梯度向量J(n)=-2p+2Rw(n)分别定义抽头输入向量R和期望响应p的瞬态估计为: (3.12)u(n)为抽头输入向量,d(n)为纯净的信号。因此梯度向量的瞬态估计为:J(n)=-2 u(n)d(n)+2 u(n) (3.13)将式(3.13)代入式(3.7)最速下降算法可得到一个新的更新抽头向量的递归关系式 (3.14)等效地,可用三个基本关系式写出结果如下:y(n)= u(n) (3.15)e(n)=d(n)-y(n) (3.16)=+u(n)e(n) (3.17)其中,式(3.15)为滤波输出,式(3.16)为估计误差或误差信号,式(3.17)为抽头权向量的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论