《神经网络控制》ppt课件_第1页
《神经网络控制》ppt课件_第2页
《神经网络控制》ppt课件_第3页
《神经网络控制》ppt课件_第4页
《神经网络控制》ppt课件_第5页
已阅读5页,还剩17页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 按照神经网络的拓扑构造与学习算法相结合的方法可将神经网络的类型分为前馈网络、竞争网络、反响网络和随机网络四大类。4.4.1 BP神经网络 1986年,D. E. Rumelhart和J. L. McClelland提出了一种利用误差反向传播训练算法的神经网络,简称BP(Back Propagation)网络,是一种有隐含层的多层前馈网络,系统地处理了多层网络中隐含单元衔接权的学习问题。BP算法原理 BP学习算法的根本原理是梯度最速下降法,它的中心思想是调整权值使网络总误差最小。 多层网络运用BP学习算法时,实践上包含了正向和反向传播两个阶段。在正向传播过程中,输入信息从输入层经隐含层逐层处置

2、,并传向输出层,每一层神经元的形状只影响下一层神经元的形状。假设在输出层不能得到期望输出,那么转入反向传播,将误差信号沿原来的衔接通道近回,经过修正各层神经元的权值,使误差信号最小。 这种网络没有反响存在,实践运转仍是单向的,所以天性将其看成是一非线性动力学系统,而只是一种非线性映射关系。具有隐含层BP网络的构造如图4-9所示。 误差反向传播算法的计算步骤误差反向传播算法的计算步骤 (1)计算一个输出单元活性改动时的误差导数计算一个输出单元活性改动时的误差导数EA,即实践活性与期望,即实践活性与期望活性的差值活性的差值 (2)计算一个单元所接受总输入变化时的误差导数计算一个单元所接受总输入变化

3、时的误差导数EI,EI实践上等于上实践上等于上述步骤述步骤(1)的结果乘以一个单元的总输入变化时其输出的变化率,即的结果乘以一个单元的总输入变化时其输出的变化率,即(3)计算一个与输出单元联接权值改动时的误差变化率计算一个与输出单元联接权值改动时的误差变化率EW(4)为了计算对误差总的影响,把对各输出单元的一切单独影响相加为了计算对误差总的影响,把对各输出单元的一切单独影响相加 运用步骤(2)和(4),可把一层单元的EA变成前面一层单元的EA,为了得到期望的前面各层的EA,可反复此计算步骤。当得到一个单元的EA后,可用步骤(2)和(3)来计算作用于它的输入联接上的EW。BP算法的计算机实现流程

4、 (1)初始化,对一切权值赋以随机恣意小值,并对阈值设定初值; (2)给定训练数据集,即提供输入向量 和期望输出 ; (3)计算实践输出 其中, 函数为Sigmoid函数Xyyf(4)调整权值,按误差反向传播方向,从输出节点开场前往到隐层按下式修正权值(5)前往第(2)步反复,直至误差满足要求为止。运用BP算法应留意的几个问题 (1)学习速率 的选锋非常重要。(2)在设置各训练样本的期望输出分量时,不能设置为1或0,以设置为 0.9或0.1较为适宜。 (3)假设实践问题给予网络的输入量较大,需做归一化处置,网络的输出也要进展相应的处置。 (4)各加权系数的初值以设置为随机数为宜。 (5)在学习

5、过程中,应尽量防止落入某些部分最小值点上,引入惯性项有能够使网络防止落入某一部分最小值。 4.4.2 径向基神经网络径向基神经网络 1985年,年,Powell提出了多变量插值的径提出了多变量插值的径向基函数向基函数(Radial Basis Function,RBF)方法。方法。 径向基函数网络比径向基函数网络比BP网络需求更多的神网络需求更多的神经元,但是它可以按时间片来训练网络。径经元,但是它可以按时间片来训练网络。径向基网络是一种部分逼近网络,已证明它能向基网络是一种部分逼近网络,已证明它能以恣意精度逼近任一延续函数。以恣意精度逼近任一延续函数。 构成构成RBF网络的根本思想:用网络的

6、根本思想:用RBF作为作为隐单元的隐单元的“基构成隐含层空间,这样就可基构成隐含层空间,这样就可将输入矢量直接将输入矢量直接(即不经过权衔接即不经过权衔接)映射到隐映射到隐空间。当空间。当RBF的中心点确定以后,这种映射的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参出的线性加权和。此处的权即为网络可调参数。数。径向基函数网络模型径向基函数网络模型 RBF网络由两层组成,其构造如图网络由两层组成,其构造如图4-10所示。所示。输

7、入层节点只是传送输入信号到隐含层,隐含层节点由像高斯核函数输入层节点只是传送输入信号到隐含层,隐含层节点由像高斯核函数那样的辐射状作用函数构成,而输出层节点通常是简单的线性函数。隐那样的辐射状作用函数构成,而输出层节点通常是简单的线性函数。隐含层节点中的作用函数含层节点中的作用函数(核函数核函数)对输入信号将在部分产生呼应。对输入信号将在部分产生呼应。 网络输出网络输出 RBF网络的输入层到隐含层实现网络的输入层到隐含层实现 的非线性映射,径向的非线性映射,径向基网络隐含层节点的作用函数普通取以下几种方式基网络隐含层节点的作用函数普通取以下几种方式 最常用的是高斯激活函数最常用的是高斯激活函数

8、 采用高斯基函数,具备如下优点:采用高斯基函数,具备如下优点:(1)表示方式简单,即使对于多变量输入也不添加太多的复改性;表示方式简单,即使对于多变量输入也不添加太多的复改性;(2)径向对称;径向对称;(3)光滑性好,恣意阶导数存在;光滑性好,恣意阶导数存在;(4)由于该基函数表示简单且解析性好,因此使于进展实际分析。由于该基函数表示简单且解析性好,因此使于进展实际分析。)(xuxi 思索到提高网络精度和减少隐含层节点数,也可以将网络激活函数改成多变量正态密度函数 式中, 是输入协方差阵的逆。 RBF网络的隐含层到输出层实现 的线性映射,即式中, 是隐含层第 个节点的输出; 是输出层第 个节点

9、的输出; 是隐含层到输出层的加权系数; 是输出层的阀值; 是隐含层节点数。 )()(1iTicxcxEKkiyxu)(iuikykkiwkqRBF网络助学习过程网络助学习过程 RBF网络的学习过程分为两个阶段。第一阶段是无教师学习;第网络的学习过程分为两个阶段。第一阶段是无教师学习;第二阶段是有教师学习。二阶段是有教师学习。(1)无教师学习阶段无教师学习阶段(a)给定各隐节点的初始中心向量给定各隐节点的初始中心向量 和断定停顿计算的和断定停顿计算的(b)计算间隔计算间隔(欧氏间隔欧氏间隔)并求出最小间隔的节点;并求出最小间隔的节点;(c)调整中心调整中心(d)断定聚类质量断定聚类质量对于全部样

10、本对于全部样本 反复进展以上反复进展以上(b),(c)步,直至满足以上条件。步,直至满足以上条件。 )0(ick(2)有教师学习阶段有教师学习阶段 有教师学习也称为有监视学习。当有教师学习也称为有监视学习。当 确定以后,训练由隐含层至确定以后,训练由隐含层至输出层之间的权值,由上可知,它是一个线性方程组,那么求权值就成输出层之间的权值,由上可知,它是一个线性方程组,那么求权值就成为线性优化问题。为线性优化问题。 隐含层至输出层之间的衔接权值隐含层至输出层之间的衔接权值 学习算法为学习算法为式中,式中, , 为高斯函数。为高斯函数。ickiwT21)()()(xuxuxuuq)(xui RBF网

11、络有关的几个问题 (1)从实际上而言,RBF网络和BP网络一样可近似任何延续非线性函数。(2)已证明RBF网络具有独一最正确通近的特性,且无部分极小。(3)求RBF网络隐节点的中心向量 和规范化常数 是一个困难的问题。(4)径向基函数,即径向对称函数有多种。(5)RBF网络虽具有独一最正确逼近的特性以及无部分极小的优点,但隐节点的中心难求,这是该网络难以广泛运用的缘由。(6) RBF网络学习速度很快,适于在线实时控制。 ici4.4.3 典型反响网络典型反响网络Hopfield网络网络 美国物理学家美国物理学家Hopfield在在1982年首先提年首先提出了一种由非线性元件出了一种由非线性元件

12、构成的单层反响网络系构成的单层反响网络系统,称这种单层反响网统,称这种单层反响网络为络为Hopfield网络。网络。 Hopfield网络模型网络模型 Hopfield网络的拓扑网络的拓扑构造可看作全衔接加权构造可看作全衔接加权无向图,它是一种网状无向图,它是一种网状网络,可分为离散和延网络,可分为离散和延续两种类型。离散网络续两种类型。离散网络的节点仅取的节点仅取+1和和-1(或或0和和1)两个值,而延续网两个值,而延续网络取络取0和和1之间任一实数。之间任一实数。图图4-11给出给出Hopfield网络网络的一种构造方式。的一种构造方式。 设此网络含有 个神经元,神经元 的形状 取0或1,

13、各神经元按以下规那么随机地、异步地改动形状 Hopfield网络模型的根本原理:只需由神经元兴奋的算法和联接权系数所决议的神经网络的形状,在适当给定的兴奋方式下尚未到达稳定形状,那么该形状就会不断变化下去,直到预先定义的一个必定减小的能量函数到达极小值时,形状才到达稳定而不再变化。 niiSHopfield网络的联想记忆功能网络的联想记忆功能 Hopfield网络的联想记忆过程,从动力学的角度就是非线性动力网络的联想记忆过程,从动力学的角度就是非线性动力学系统朝着某个稳定形状运转的过程,这一过程可分为学习和联想两个学系统朝着某个稳定形状运转的过程,这一过程可分为学习和联想两个阶段。阶段。 在给

14、定样本的条件下,按照在给定样本的条件下,按照Hebb学习规那么,调整联接权值,使学习规那么,调整联接权值,使得存储的样本成为动力学的吸引子,这个过程就是学习阶段。而联想是得存储的样本成为动力学的吸引子,这个过程就是学习阶段。而联想是指在已调整好权值不变的情况下,给出部分不全或受了干扰的信息,按指在已调整好权值不变的情况下,给出部分不全或受了干扰的信息,按照动力学规那么改动神经元的形状,使系统最终变到动力学的吸引子。照动力学规那么改动神经元的形状,使系统最终变到动力学的吸引子。即指收敛于某一点,或周期性迭代即指收敛于某一点,或周期性迭代(极限环极限环),或处于混沌形状。,或处于混沌形状。下面给出

15、Hopfield网络用于联想记忆的学习算法,本算法取偏流I为零。(1)按照Hebb规那么设置权值(2)对未知样本初始化(3)迭代计算直至节点输出形状不改动时,迭代终了。此时节点的输出形状即为未知输入最正确匹配的样本。(4)前往(2)继续迭代。 Hopfieid网络的优化计算功能网络的优化计算功能 Hopfield网络实际的中心思想以为,网络从高能形状转移到最小网络实际的中心思想以为,网络从高能形状转移到最小能量形状,那么到达收敛,获得稳定的解,完成网络功能。能量形状,那么到达收敛,获得稳定的解,完成网络功能。Hopfield网网络所构成的动力学系统与固体物理学模型自旋玻璃类似,可用二次能量络所

16、构成的动力学系统与固体物理学模型自旋玻璃类似,可用二次能量函数来描画系统的形状,系统从高能形状到低能的稳定形状的变化过程,函数来描画系统的形状,系统从高能形状到低能的稳定形状的变化过程,类似于满足约束问题的搜索最优解的过程。类似于满足约束问题的搜索最优解的过程。 因此,因此,Hopfield网络可用于优化问题的计算。网络可用于优化问题的计算。Hopfield网络用于优网络用于优化问题的计算与用于联想记忆的计算过程是对偶的。在处理优化问题时,化问题的计算与用于联想记忆的计算过程是对偶的。在处理优化问题时,权矩阵权矩阵W知,目的是求取最大能量正的稳定形状。为此,必需将待优化知,目的是求取最大能量正

17、的稳定形状。为此,必需将待优化的问题映射到网络的相应于优化问题能够解的特定组态上,再构造一待的问题映射到网络的相应于优化问题能够解的特定组态上,再构造一待优化问题的能量函数,它应和优化问题中的二次型代价函数成正比例。优化问题的能量函数,它应和优化问题中的二次型代价函数成正比例。 4.4.4 小脑模型关联控制器小脑模型关联控制器CMAC网络网络 1975年,年,Albus根据神经生理学小脑皮根据神经生理学小脑皮层构造特点,提出了一种小脑模型关联控制层构造特点,提出了一种小脑模型关联控制器器(Cerebellum Model Articulation Controller),简记为,简记为CMAC网络。经过多年网络。经过多年的研讨,其中包括的研讨,其中包括Miller、Tolle、Ersu及及Parks等人出色的任务,目前它已被公以为等人出色的任务,目前它已被公以为是一类联想记忆网络是一类联想记忆网络(ANN)的重要组成部分。的重要组成部分。 CMAC网络的任务原理网络的任务原理

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论