外文翻译--RBF 神经网络.doc_第1页
外文翻译--RBF 神经网络.doc_第2页
外文翻译--RBF 神经网络.doc_第3页
外文翻译--RBF 神经网络.doc_第4页
外文翻译--RBF 神经网络.doc_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

附录A2RBF神经网络2.1神经网络原理人脑存储的信息是分布式地存储在脑细胞之间的关联上,而不是保存在脑细胞的内部。脑细胞通过它们之间的作用关系(如激励和抑制)来存储。人工模拟这种映射关系的系统称为(人工)神经网络(ANN)。神经网络是一个具有高度非线性的超大规模连续时间动力系统,是由大量的处理单元(神经元)广泛互连而形成的网络。它是在现代神经科学研究成果的基础上提出的,反映了脑功能的基本特征。但它并不是人脑的真实描写,而只是它的某种抽象、简化与模拟。网络的信息处理由神经元之间的相互作用来实现,知识与信息的存储表现为网络元件互连间分布式的物理联系,网络的学习和计算决定于各神经元连接权系的动态演化过程。其中,神经元构成了网络的基本运算单元,每个神经元具有自己的阂值,每个神经元的输入信号是所有与其相连的神经元的输出信号和加权后的和。而输出信号是其净输入信号的非线性函数。如果输入信号的加权集合高于其闲值,该神经元便被激活而输出相应的值。在人工神经网络中所存储的是单元之间连接的加权值阵列。神经网络的工作过程主要由两个阶段组成:一个阶段是工作期。此时各连接权值固定,计算单元的状态变化,以求达到稳定状态。另一阶段是学习期(自适应期,或设计期)。此时各计算单元状态不变,各连接权值可修改(通过学习样本或其他方法)。前一阶段较快,各单元的状态亦称短期记忆(STM)。后一阶段慢的多,权及连接方式亦称长期记(LTM)。目前神经网络的结构有近百种之多,算法更无法记数。根据网络特性,神经网络大致可以分为静态和动态两类。静态网络当前的输出仅仅反映当前输入数据的处理结果。动态网络是有记忆能力的网络,记忆能力可以是由于神经元传递函数是微分或差分方程导致的;也可以是由于网络的输出或网络内部的状态反馈到网络的输入端产生的。下面对于一些常见于控制系统中的网络结构和算法作简要的介绍。2.1.1神经网络的结构类型1.神经网络的基本结构神经网络是由大量简单神经元相互连接构成的复杂网络。图2-1是一个典型的单层神经网络模型,它具有R维输入,S个神经元。p为RXI维的输入矢量,网络层由权值矩阵W(SxR)、闭值矢量b(Sxl)、求和单元。和传递函数运算单元f组成,S个神经元的输出组成了Sxl维的神经网络输出矢量a。其中,输入层网络权值矩阵W和阀值矢量b的具体形式如下:在单层神经网络的基础上可以构造多层神经网络。一个典型的三层神经网络模型2.神经网络的分类神经网络的类型多种多样,它们是从不同角度对生物神经系统不同层次的抽象和模拟【18】。一般来说,当神经元的模型确定之后,一个神经网络的特性及其功能主要取决于网络的拓扑结构及学习方法。按网络拓扑结构主要可分为前馈型和反馈型两种19,13。(1)馈型网络。各神经元接受前一层的输入,并输出给下一层,没有反馈,结点分为两类,即输入单元和计算单元,每一计算单元可有多个输入,但只有一个输出(它可藕合到任意多个其他结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第i一1层输出相连,输入和输出结点与外界相连,而其他中间层则称为隐层。(2)馈型网络。所有结点都是计算单元,同时也可接受输入,并向外界输出,可画成一个无向图,如图2-4(a),其中每个连接弧都是双向的,也可画成如图2-4(b)的形式。若总单元数为n,则每一个结点有n-1个输入和一个输出。神经网络的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不变,各连接上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算单元状态变化,以达到某种稳定状从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解最优化问题。2.1.2神经网络在控制中的应用K.J.Hunt和D.Sbrabaro等总结了神经网络用于控制系统最吸引人的几个特征:神经网络是本质的非线性系统、具有高度并行的结构、某些网络可以硬件实现、具有学习和自适应性、可以同时处理定性的和定量的数据、多变量系统等特点。神经网络在控制系统中无论是作为控制器还是作为实际系统的辩识模型,都是以神经网络的函数逼近能力为基础的。有两种基本的神经网络的应用方式:正模型(辩识)和逆模型(控制器)正模型法通过训练使一个神经网络逼近一个系统的正向模型,以模型和实际系统输出的差值作为网络训练的误差信号来修正网络权值。假设系统的模型训练可以一直采用实际系统的数据y以保证训练的稳定性,或者在一定的训练步数后采用神经网络以前的输出作为网络输入来避免有噪声的数据对辩识结果的影响。逆模型法通过训练得到系统动态的逆模型或控制器,串联在原系统前面使系统简化或满足一定的控制要求。有两种基本的神经网络求逆结构:直接逆结构和间接逆结构直接逆结构输入一个信号到实际系统,其输出作为神经网络的输入,把网络的输出和加入信号的差值作为误差训练网络。直接逆结构有两个严重的缺点:(l)由于神经网络逆模型的输入是由实际系统的输出得到的,可能不完全覆盖逆问题的输入空间;(2)如果系统不是一对一的,在不能得到全部输入空间特征训练点集的情况下,可能得到错误的逆模型。采用神经网络间接逆结构可以部分地克服上面两点缺点。间接逆结构输入信号到神经网络,然后把网络输出送到实际系统,系统输出与输入到网络的信号差值用来训练神经网络。采用该结构,网络的输入可以人工选择,可以使输入的信号能够代表逆系统输入空间的特征。当网络不是一对一的时候,可以学习得到具有某些特定性质的部分逆模型。2.2径向基函数神经网络及其学习算法径向基函数(RadialBasisFunction)神经网络是由J.Moody和C.Darken在20世纪80年代末提出的一种神经网络,它是具有单隐层的三层前馈网络。由于它模拟了人脑中局部调整、相互覆盖接收域(或称感受野一RecePtiveField)的神经网络结构,因此,径向基函数(径向基)神经网络网络是一种局部逼近网络,即对于输入空间的某一局部区域只存在少数的神经元用于决定网络的输出。已证明它能以任意精度逼近任意连续函数。径向基函数理论是一种对多输入、多输出非线性系统的辨识方法,以此而建立的径向基网络可实现对非线性系统的模式识别与分类。2.2.1径向基函数神经元模型一个具有R维输入的径向基函数神经元模型如图2一7所示。图中的dist模块表示求取输入矢量和权值矢量的距离。此模型中采用高斯函数radbas作为径向基函数神经元的传递函数,其输n入为输入矢量p和权值矢量w的距离乘以阂值b。高斯函数是典型的径向基函数,其表达式为f(x)=e-x2其函数曲线如图2一8所示中心与宽度是径向基函数神经元的两个重要参数。神经元的权值矢量w确定了径向基函数的中心,当输入矢量p与w重合时,径向基函数神经元的输出达到最大值,当输入矢量p距离w越远时,神经元输出就越小。神经元的闭值b确定了径向基函数的宽

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论