多层神经网络1_第1页
多层神经网络1_第2页
多层神经网络1_第3页
多层神经网络1_第4页
多层神经网络1_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

多层神经网络灰书包资源共享联盟/文化产业资源下载基地/灰书包文化产业/文化创意产业灰书包多层神经网络寻求的是一种在训练线性判别函数的同时学习其非线性程度的方法;决定非线性映射的参数的学习是与控制线性判别函数的参数的学习同时进行的。两层网络只能实现一个线性判决边界,如果给出足够数量的隐单元,三层及更多层网络就可以实现任意的判决边界。各判决区不必是凸的或是单联通的。多层神经网络的优点是算法简单,运行非线性函数的具体形式可以通过训练样本获得。训练多层网络的方法即反向传播算法(BP算法),是基于误差的梯度下降准则(LMS算法)的一种自然延伸。神经网络是一种可以适应复杂模型的非常灵活的启发式的统计模式识别技术。反向传播有一些启发式技巧,我们可以对输入值的范围、初始权值、期望输出等参数值做出明智的选择。网络拓扑在神经网络分类中起着重要作用。通过对隐含层的数目、节点单元个数、反馈节点的个数等选择,可将对问题非正式或启发式的知识嵌入到网络结构中。因此,网络拓扑的设置也是一种启发式的选择。设置网络拓扑来选择模型、通过反向传播算法来估计参数,是测试各种可选模型的方法。神经网络技术应用问题涉及到正则化,即选择或调整网络的复杂程度。1前馈运算和分类如图的三层神经网络由一个输入层、一个隐含层、一个输出层组成。它们由修正的权值互连。除了连接输入单元,每个单元还连接着一个偏置(bias)。在模式识别里,输入单元提供特征量,输出单元激发的信号成为用来分类的判别函数的值。隐含单元对各个输入进行加权求和运算的“净激活”TOC\o"1-5"\h\zdd"叫=2>片+气严为X沁=吋柱2-12-0每个隐含层单元激发出一个输出分量,这个分量是它激活的非线性函数,即yj=输出单元的净激活:*z樨*=2>严勿+%)=乞凡叫=心J-1J-0输出单元对net的非线性函数是:例如,激活函数可以是符号函数,但一般要求激活函数式连续可微的。也允许输出层的激活函数同隐含层的不一样,甚至每个单元都有不同的激活函数。只有两种类别时,一般只采用单个输出单元,通过输出值得符号来标识一个输入模式。有多个输出单元时,计算每个判别函数,并通过使判别函数最大来将输入信号分类。多层网络的表达能力:任何从输入到输出的连续映射函数都可以用一个三层非线性网络实现,条件是给出足够数量的隐单元nH、适当的非线性函数和权值。2反向传播算法神经网络的关键问题是根据训练样本和期望输出来设置合适的权值。反向传播是最简单也最一般的方法,是线性LMS算法的自然延伸,更具启发价值。反向传播的作用在于可以对每一个隐单元计算有效误差,并由此推导出一个输入层到隐含层权值的学习规则。网络由两类基本运算模式:前馈和学习。前馈运算包括提供一个模式给输入单元、在网络间传递信号,然后在输入单元得到输出。对于有监督的学习,包括了提供一个输入模式,并改变网络参数使实际输出更加接近期望教师信号或目标值。上图的三层网络中:在前馈操作里,一个d维的输入模式x被提供给输入层,每个输入单元发送它所对应的分量xi。nH个隐单元中的每一个都计算它的净激活能netj,它是输入层信号和隐单元权值wji的内积。隐单元的输出是yj=f(netj),f()是一个非线性转换函数,这里是sigmoid。c个输出单元的工作原理类似于隐含层单元的,计算净激活能netk,即隐单元信号和输出单元权值的内积。网络的最终发送信号zk=f(netk)作为分类用的判别函数。网络训练过程中,这些输出信号和一个引导向量或目标向量t作比较,任何差值都用于整个网络的权值训练。灰书包资源共享联盟/文化产业资源下载基地/灰书包文化产业/文化创意产业灰书包任一差值对应一误差。该误差或准则函数是权值的某种标量函数,它在网络输出与期望输出匹配时达到最小。权值向着可以减小误差值的方向调整。考虑一个模式的训练误差,定义为输出端的期望输出值tk和实际输出值zk的差的平方和。]]£1..即损失函数:£z艺方向传播学习规则是基于梯度下降法的。权值首先被初始化为随机值,然后向误差减小的方向调整。△w=—孑一其中n是学习率,仅表示权值的相对变化尺度。迭代算法在第m次迭代时取一个权向量并将它更新为w(附+1)=w伽)+Aw考虑第一个隐含层到输出层的权值wkj。由于误差并不是明显决定于wjk,我们必须使用链式微分法则:其中单元k的敏感度定义为%=dJ此敏感度描述总误差怎样随着单元的激发而变化。aj3旳召氐dJdzaj3旳召氐dJdzkdzkdn%(氐-玉)广Of』由输出单元净激活公式可推得:灰书包资源共享联盟/文化产业资源下载基地/灰书包文化产业/文化创意产业灰书包综上所述,可得隐含层到输出层的权值更新或学习规则:%=VM=卯血一玉)广(梅氐)丹考虑输入层到隐含层的权值学习规则£叽=麻心=耳工W挖广阳J)阳Lji」反向传播算法,更确切的说“误差反向传播”算法。在训练过程中一个误差(敏感度)必须从输出层传播回隐含层,以实现输入层到隐含层的权值学习。本质上,反向传播只是“分层模型”里的梯度下降法。在分层模型里对连续函数执行链式法则可以计算准则函数对所有模型权值的导数。初始权值的设置如果权值全部为0,反向传播误差也将为0,输入层到输出层的权值将不变。故不能设为0,一般采用随机初始值。3训练协议及学习曲线灰书包资源共享联盟/文化产业资源下载基地/灰书包文化产业/文化创意产业灰书包三种:随机训练、

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论