人工神经网络讲稿ch4ppt课件_第1页
人工神经网络讲稿ch4ppt课件_第2页
人工神经网络讲稿ch4ppt课件_第3页
人工神经网络讲稿ch4ppt课件_第4页
人工神经网络讲稿ch4ppt课件_第5页
已阅读5页,还剩38页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

22.05.2020,.,1,第4章BP网络,主要内容:BP网络的构成隐藏层权的调整分析Delta规则理论推导算法的收敛速度及其改进讨论BP网络中的几个重要问题重点:BP算法难点:Delta规则的理论推导,22.05.2020,.,2,4.1概述,1、BP算法的出现非循环多级网络的训练算法UCSDPDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了该方法2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛3、优点:广泛的适应性和有效性。,22.05.2020,.,3,4.2基本BP算法,4.2.1网络的构成神经元的网络输入:neti=x1w1i+x2w2i+xnwni神经元的输出:,22.05.2020,.,4,输出函数分析,应该将net的值尽量控制在收敛比较快的范围内可以用其它的函数作为激活函数,只要该函数是处处可导的,22.05.2020,.,5,网络的拓扑结构,22.05.2020,.,6,网络的拓扑结构,BP网的结构输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个数的决定实验:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力BP网一般都选用二级网络,22.05.2020,.,7,网络的拓扑结构,22.05.2020,.,8,4.2.2训练过程概述,样本:(输入向量,理想输出向量)权初始化:“小随机数”与饱和状态;“不同”保证网络可以学。1、向前传播阶段:(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;(2)计算相应的实际输出Op:Op=Fl(F2(F1(XpW(1)W(2)W(L),22.05.2020,.,9,4.2.2训练过程概述,2、向后传播阶段误差传播阶段:(1)计算实际输出Op与相应的理想输出Yp的差;(2)按极小化误差的方式调整权矩阵。(3)网络关于第p个样本的误差测度:,(4)网络关于整个样本集的误差测度:,22.05.2020,.,10,4.2.3误差传播分析,1、输出层权的调整,wpq=wpq+wpqwpq=qop=fn(netq)(yq-oq)op=oq(1-oq)(yq-oq)op,22.05.2020,.,11,2、隐藏层权的调整,22.05.2020,.,12,2、隐藏层权的调整,pk-1的值和1k,2k,mk有关不妨认为pk-1通过权wp1对1k做出贡献,通过权wp2对2k做出贡献,通过权wpm对mk做出贡献。pk-1=fk-1(netp)(wp11k+wp22k+wpmmk),22.05.2020,.,13,2、隐藏层权的调整,vhp=vhp+vhpvhp=pk-1ohk-2=fk-1(netp)(wp11k+wp22k+wpmmk)ohk-2=opk-1(1-opk-1)(wp11k+wp22k+wpmmk)ohk-2,22.05.2020,.,14,4.2.4基本的BP算法,样本集:S=(X1,Y1),(X2,Y2),(Xs,Ys)基本思想:逐一地根据样本集中的样本(Xk,Yk)计算出实际输出Ok和误差测度E1,对W(1),W(2),W(L)各做一次调整,重复这个循环,直到Epdo4.1E=0;,22.05.2020,.,16,算法4-1基本BP算法,4.2对S中的每一个样本(Xp,Yp):4.2.1计算出Xp对应的实际输出Op;4.2.2计算出Ep;4.2.3E=E+Ep;4.2.4根据相应式子调整W(L);4.2.5k=L-1;4.2.6whilek0do4.2.6.1根据相应式子调整W(k);4.2.6.2k=k-14.3E=E/2.0,22.05.2020,.,17,4.3算法的改进,1、BP网络接受样本的顺序对训练结果有较大影响。它更“偏爱”较后出现的样本2、给集中的样本安排一个适当的顺序,是非常困难的。3、样本顺序影响结果的原因:“分别”、“依次”4、用(X1,Y1),(X2,Y2),(Xs,Ys)的“总效果”修改W(1),W(2),W(L)。w(k)ij=pw(k)ij,22.05.2020,.,18,算法4-2消除样本顺序影响的BP算法,1fork=1toLdo1.1初始化W(k);2初始化精度控制参数;3E=+1;4whileEdo4.1E=0;4.2对所有的i,j,k:w(k)ij=0;,22.05.2020,.,19,4.3对S中的每一个样本(Xp,Yp):4.3.1计算出Xp对应的实际输出Op;4.3.2计算出Ep;4.3.3E=E+Ep;4.3.4对所有i,j根据相应式子计算pw(L)ij;4.3.5对所有i,j:w(L)ij=w(L)ij+pw(L)ij;4.3.6k=L-1;4.3.7whilek0do4.3.7.1对所有i,j根据相应式子计算pw(k)ij;4.3.7.2对所有i,j:w(k)ij=w(k)ij+pw(k)ij;4.3.7.3k=k-14.4对所有i,j,k:w(k)ij=w(k)ij+w(k)ij;4.5E=E/2.0,22.05.2020,.,20,算法4-2分析,较好地解决了因样本的顺序引起的精度问题和训练的抖动问题收敛速度:比较慢偏移量:给每一个神经元增加一个偏移量来加快收敛速度冲量:联接权的本次修改要考虑上次修改的影响,以减少抖动问题,22.05.2020,.,21,算法4-2分析冲量设置,Rumelhart等人1986年wij=joi+wijwij为上一次的修改量,为冲量系数,一般可取到0.9Sejnowski与Rosenberg,1987年wij=(1-)joi+wij)wij也是上一次的修改量,在0和1之间取值,22.05.2020,.,22,4.4算法的实现,主要数据结构WH,m输出层的权矩阵;Vn,H输入(隐藏)层的权矩阵;om输出层各联接权的修改量组成的向量;hH隐藏层各联接权的修改量组成的向量;O1隐藏层的输出向量;O2输出层的输出向量;(X,Y)一个样本。,22.05.2020,.,23,算法的主要实现步骤,用不同的小伪随机数初始化W,V;初始化精度控制参数;学习率;循环控制参数E=+1;循环最大次数M;循环次数控制参数N=0;whileE&NMdo4.1N=N+1;E=0;4.2对每一个样本(X,Y),执行如下操作,22.05.2020,.,24,4.2对每一个样本(X,Y),执行的操作,4.2.1计算:O1=F1(XV);O2=F2(O1W);4.2.2计算输出层的权修改量fori=1tom4.2.2.1oi=O2i*(1-O2i)*(Yi-O2i);4.2.3计算输出误差:fori=1tom4.2.3.1E=E+(Yi-O2i)2;,22.05.2020,.,25,4.2对每一个样本(X,Y),执行的操作,4.2.4计算隐藏层的权修改量:fori=1toH4.2.4.1Z=0;4.2.4.2forj=1tomdoZ=Z+Wi,j*oj;4.2.4.3hi=Z*O1i(1-O1i);4.2.5修改输出层权矩阵:fork=1toH&i=1tom4.2.5.1Wk,i=Wk,i+*O1k*oi;4.2.5修改隐藏层权矩阵:fork=1ton&i=1toH4.2.5.1Vk,i=Vk,i+*Xk*hi;,22.05.2020,.,26,建议,隐藏层的神经元的个数H作为一个输入参数同时将、循环最大次数M等,作为算法的输入参数在调试阶段,最外层循环内,加一层控制,以探测网络是否陷入了局部极小点,22.05.2020,.,27,4.5算法的理论基础,基本假设网络含有L层联接矩阵:W(1),W(2),W(L)第k层的神经元:Hk个自变量数:n*H1+H1*H2+H2*H3+HL*m样本集:S=(X1,Y1),(X2,Y2),(Xs,Ys)误差测度:,22.05.2020,.,28,用E代表EP,用(X,Y)代表(XP,YP)X=(x1,x2,xn)Y=(y1,y2,ym)该样本对应的实际输出为O=(o1,o2,om),误差测度,22.05.2020,.,29,误差测度,用理想输出与实际输出的方差作为相应的误差测度,22.05.2020,.,30,最速下降法,要求E的极小点,取,22.05.2020,.,31,而其中的,所以,,最速下降法,要求E的极小点,22.05.2020,.,32,令,所以wij=joi为学习率,最速下降法,要求E的极小点,22.05.2020,.,33,ANj为输出层神经元,oj=f(netj)容易得到,从而,22.05.2020,.,34,ANj为输出层神经元,22.05.2020,.,35,所以,,故,当ANj为输出层的神经元时,它对应的联接权wij应该按照下列公式进行调整:,ANj为输出层神经元,22.05.2020,.,36,ANj为隐藏层神经元,22.05.2020,.,37,ANj为隐藏层神经元,netk=,oj,22.05.2020,.,38,ANj为隐藏层神经元,22.05.2020,.,39,ANj为隐藏层神经元,22.05.2020,.,40,ANj为隐藏层神经元,22.05.2020,.,41,4.6几个问题的讨论,收敛速度问题局部极小点问题逃离/避开局部极小点:修改W、V的初值并不是总有效。逃离统计方法;Wasserman,1986将Cauchy训练与BP算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。,22.05.2020,.,42,4.6几个问题的讨论,网络瘫痪问题在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论