版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
3.1BP网络学习算法改进标准BP算法误差空间是N维空间中一个形状极为复杂曲面,该曲面上每个点“高度”对应于一个误差值,每个点坐标向量对应着N个权值单权值双权值神经网络优化方法bp算法缺陷专家讲座第1页3.1BP网络学习算法改进BP网络学习算法存在问题存在平坦区域影响--------误差下降迟缓,影响收敛速度。原因--------误差对权值梯度改变小--靠近于零由各节点净输入过大而引发。分析:激活函数为Sigmod函数神经网络优化方法bp算法缺陷专家讲座第2页3.1BP网络学习算法改进存在平坦区域原因分析权值修正量:输出导数:神经网络优化方法bp算法缺陷专家讲座第3页3.1BP网络学习算法改进存在平坦区域原因分析:第一个可能是充分靠近第二种可能是充分靠近0么三种可能是充分靠近1造成平坦区原因:
各节点净输入过大对应着误差某个谷点
对应着误差平坦区神经网络优化方法bp算法缺陷专家讲座第4页3.1BP网络学习算法改进存在多个极小点影响------易陷入局部最小点
原因:以误差梯度下降为权值调整标准,误差曲面上可能存在多个梯度为0点,多数极小点都是局部极小,即使是全局极小往往也不是唯一,使之无法区分极小点性质造成结果:使得训练经常陷入某个局部极小点而不能自拔,从而使训练无法收敛于给定误差。神经网络优化方法bp算法缺陷专家讲座第5页3.1BP网络学习算法改进
BP算法缺点小结⑴易形成局部极小而得不到全局最优;⑵训练次数多使得学习效率低,收敛速度慢;⑶隐节点选取缺乏理论指导;⑷训练时学习新样本有遗忘旧样本趋势。针对上述问题,国内外已提出不少有效改进算法,下面将介绍其中几个较惯用方法。神经网络优化方法bp算法缺陷专家讲座第6页3.1.1消除样本输入次序影响改进算法
在线学习方式时,网络受后面输入样本影响较大,严重时,会影响用户要求训练精度。为了消除这种样本次序对结果影响,能够采取批处理学习方式,即使用一批学习样本产生总误差来调整权值,用公式表示以下:处理了因样本输入次序引发精度问题和训练抖动问题。不过,该算法收敛速度相对来说还是比较慢。神经网络优化方法bp算法缺陷专家讲座第7页3.1.1消除样本输入次序影响改进算法算法流程图网络初始化计算输出层权值调值计算隐含层权值调值计算全局误差是结束判断是否结束?否更新权值神经网络优化方法bp算法缺陷专家讲座第8页3.1.2附加动量改进算法在反向传输法基础上在每一个权值(或阈值)改变上加上一项正比于上一次权值(或阈值)改变量值,并依据反向传输法来产生新权值(或阈值)改变带有附加动量因子权值调整公式为:能够预防出现即最终一次权值改变量为0,有利于使网络从误差曲面局部极小值中跳出。但对于大多数实际应用问题,该法训练速度依然很慢。MATLAB中工具函数traingdm()即对应于附加动量法。神经网络优化方法bp算法缺陷专家讲座第9页3.1.3采取自适应调整参数改进算法采取自适应调整参数改进算法基本构想是学习率应依据误差改变而自适应调整,以使权系数调整向误差减小方向改变,其迭代过程可表示为:在很小情况下,采取自适应调整参数改进算法依然存在权值修正量很小问题,致使学习率降低。MATLAB中工具函数traingda()即对应于自适应调整参数法。神经网络优化方法bp算法缺陷专家讲座第10页3.1.4使用弹性方法改进算法BP网络通常采取Sigmoid隐含层。当输入函数很大时,斜率靠近于零,这将造成算法中梯度幅值很小,可能使网络权值修正过程几乎停顿下来。弹性方法只取偏导数符号,而不考虑偏导数幅值。其权值修正迭代过程可表示为:在弹性BP算法中,当训练发生振荡时,权值改变量将减小;当在几次迭代过程中权值均朝一个方向改变时,权值改变量将增大。所以,使用弹性方法改进算法,其收敛速度要比前几个方法快得多神经网络优化方法bp算法缺陷专家讲座第11页3.1.5使用拟牛顿法改进算法梯度法缺点是搜索过程收敛速度较慢,牛顿法在搜索方向上比梯度法有改进,它不但利用了准则函数在搜索点梯度,而且还利用了它二次导数,就是说利用了搜索点所能提供更多信息,使搜索方向能更加好地指向最优点。它迭代方程为:收敛速度比一阶梯度快,但计算又较复杂,比较经典有BFGS拟牛顿法和一步正切拟牛顿法。MATLAB中工具函数trainbfg()、trainoss()即对应拟牛顿法中BFGS拟牛顿法和一步正切拟牛顿法。
神经网络优化方法bp算法缺陷专家讲座第12页3.1.6基于共轭梯度法改进算法梯度下降法收敛速度较慢,而拟牛顿法计算又较复杂,共轭梯度法则力图防止二者缺点。共轭梯度法也是一个改进搜索方向方法,它是把前一点梯度乘以适当系数,加到该点梯度上,得到新搜索方向。其迭代方程为:神经网络优化方法bp算法缺陷专家讲座第13页3.1.6基于共轭梯度法改进算法共轭梯度法比大多数常规梯度下降法收敛快,而且只需增加极少存放量和计算量。对于权值很多网络,采取共轭梯度法不失为一个很好选择。MATLAB中工具函数traincgb()、traincgf()、traincgp()即对应于共轭梯度法。神经网络优化方法bp算法缺陷专家讲座第14页3.1.7基于Levenberg-Marquardt法改进算法梯度下降法在最初几步下降较快,但伴随靠近最优值,因为梯度趋于零,致使误差函数下降迟缓,而牛顿法则可在最优值附近产生一个理想搜索方向。Levenberg-Marquardt法实际上是梯度下降法和牛顿法结合,它优点在于网络权值数目较少时收敛非常快速。应用Levenberg-Marquardt优化算法比传统BP及其它改进算法(如共轭梯度法,附加动量法、自适应调整法及拟牛顿法等)迭代次数少,收敛速度快,准确度高。MATLAB中工具函数trainlm()即对应Levenberg-Marquardt法改进算法。神经网络优化方法bp算法缺陷专家讲座第15页BP神经网络优化算法对比示例神经网络优化方法bp算法缺陷专家讲座第16页课后练习:BP神经网络优化算法对比建立一个BP网络,使用各种优化算法对应学习函数对神经网络进行训练,实现对函数迫近,并计算出各种学习方法训练网络时所使用时间神经网络优化方法bp算法缺陷专家讲座第17页小结BP网络学习算法存在问题BP网络学习算法更正算法消除样本输入次序影响改进算法
附
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 混凝土耐高温施工方案
- 混凝土外表面装饰施工技术方案
- 排水系统修复技术方案
- 2026福建水投集团闽清水务有限公司招聘4人考试备考试题及答案解析
- 土石方工程的围护结构设计方案
- 工程项目多维度数据管理方案
- 2026中国中医科学院中药研究所招聘国内高校应届毕业生3人(提前批)考试参考题库及答案解析
- 2026国网吉林省电力有限公司高校毕业生招聘129人(第二批)考试参考试题及答案解析
- 2026年河北旅游职业学院单招综合素质考试题库含答案解析
- 2026中煤绿能科技(北京)有限公司本部招聘1人考试备考题库及答案解析
- 洗罐设备项目可行性研究报告
- 运用PDCA循环降低初次剖宫产率
- DB12T 1192-2023 菲律宾蛤仔人工苗种繁育技术规范
- 深圳大学《算法设计与分析》2023-2024学年期末试卷
- 2024年全新PE工程师培训教材发布
- 江西天宇化工有限公司30万吨年离子膜氯碱项目环境影响报告书
- 足金点钻工艺培训
- 神秘客人报告
- JB-T 14535-2023 塑料注射模 试模方法
- 口腔护理操作规范口腔护理PPT
- 教育版机器人入门教程(乐聚机器人)
评论
0/150
提交评论