人人文库网 > 毕业设计 > 电气电子毕业设计156武汉科技大学基于改进的bp神经网络的脱硫预报模型的研究
基于改进的BP神经网络的脱硫预报模型的研究.doc
电气电子毕业设计156武汉科技大学基于改进的bp神经网络的脱硫预报模型的研究
收藏
资源目录
压缩包内文档预览:(预览前20页/共73页)
编号:517307
类型:共享资源
大小:390.67KB
格式:RAR
上传时间:2015-11-12
上传人:QQ28****1120
认证信息
个人认证
孙**(实名认证)
辽宁
IP属地:辽宁
3.6
积分
- 关 键 词:
-
毕业设计论文
- 资源描述:
-
电气电子毕业设计156武汉科技大学基于改进的bp神经网络的脱硫预报模型的研究,毕业设计论文
- 内容简介:
-
本科毕业设计 (论文 ) 题目 基于改进的 BP神经网络的脱硫预报模型的研究 学 院 信息科学与工程学院 专 业 自 动 化 学 号 2001134128 学生姓名 陆 璐 指导教师 熊 凌 答辩日期 2005.6.10 nts武汉科技大学本科毕业设计 (论文 ) I 摘 要 本文介绍了 BP 神经网络模型和算法,建立了基于改进的 BP神经网络的脱硫预报模型 核心 模型算法的研究与开发。为了能更好地理解所建模型和算法,本文对人工神经网络的基本知识也做了相应的研究。 模型算法的研究建立在 MATLAB平台上, 通过 MATLAB实现 BP神经网络的改进算法 。对传统的 BP算法进行改进 ,改进 采用了动量法和学习率自适应调整的策略 。推导出传统BP算法及改进后的 BP算法的权值公式。 运用 MATLAB对 BP神经网络进行初始化和训练 ,并与传统的 BP算法进行了比较。 实践证明 , 改进了的 BP神经网络算法 ,提高了学习速度 、 增加了算法的可行性 。 利用 MATLAB软件提供的工具箱编制 BP网络解决非线性问题 是一种便捷、有效的途径 。 全文内容分为五章:第一章为绪论 ,说明了模型建立的必要性;第二章介绍了人工神经网络的研究、发展及应用;第三章介绍了对改进的 BP算法的研究及所用工具软件MATLAB的相关知识;第四章是脱硫模型的建立;第五章为总结。 关键词 :BP神经网络 ; MATLAB网络结构 ; 动量法 ; 学习自适应 nts武汉科技大学本科毕业设计 (论文 ) II Abstract This paper introduced the BP neural network with the model and the algorithm, and established a desulfurization forecasted model basing on the improved BP algorithm the research and development of the algorithm core model. For the sake of comprehending the model and the algorithm that were established, in this paper we also introduced some basic informations of artificial neural network. The research of the algorithm of the modle is base on the stage of MATLAB. The realization of the improved arithmetic of BP neural network is based on the MATLAB.BP algorithm of artificial neural network is improved; Method of momentum and strategy is adopted for adjusting learning efficiency. In this paper I deduced the weights formula of the BP algorithm in both traditional way and improved way. Applying MATLAB to initialize and train BP neural networks, and combined with the traditional BP algorithm. Practice had proved: an improved arithmetic of BP neural networks improves the speed of learning and builds up the feasibility of arithmetic. It is a facile, effective and trouble saving way to make use of the toolboxes supplied by MATLAB. The full paper is divided into five chapters: Chapter 1 introducing, explaining the necessity of the model established; Chapter 2 introducing the research, development and application of the artificial neural network; Chapter 3 introducing the related knowledge for the researching of improved BP algorithm and the episteme of the tool software MATLAB; Chapter 4 is establishment of the desulfurization model ;Chapter 5 is the summary. Key words:BP neural network; MATLAB network architecture; Method of momentum; Self-adaptation of learning nts武汉科技大学本科毕业设计 (论文 ) III 目 录 摘 要 . I Abstract . II 第 1章 绪 论 . 1 第 2 章 神经网络简介 . 3 2.1 神经网络研究与发展 . 3 2.2 人工神经网络研究与应用的主要内容 . 5 2.3 常用神经网络原理及学习算法 . 8 2.3.1 感知器网络 . 8 2.3.2 线性神经网络 . 11 第 3章 BP神经网络的研究 . 14 3.1 BP神经网络 . 14 3.1.1 BP 神经网络模型 . 14 3.1.2 BP 网络设计问题 . 16 3.2 BP神经网络的改进 . 19 3.2.1 改 进 BP 算法的数学描述 . 19 3.2.2 BP 神经网络的改进方法 . 22 3.3 MATLAB软件及其 BP神经网络工具箱函数 . 23 第 4章 模型的建立 . 25 4.1 问题描述 . 26 4.2 网络建立 . 26 4.3 讨论 . 36 第 5章 总 结 . 37 致 谢 . 38 nts武汉科技大学本科毕业设计 (论文 ) IV 参考文献 . 39 英文原文 . 40 译文 . 49 附录 . 56 nts武汉科技大学本科毕业设计 (论文 ) 1 第 1 章 绪 论 随着经济的发展,钢材在生产、建筑等行业中的需求量日益增加,人们对钢材质量的要求也越来越严格。 炼 钢过程中脱硫是一个非常重要的工艺环节。钢铁中较高的含硫量不仅会使钢铁产生“热脆性”,严重影响钢铁的质量,而且 也会增加转炉冶炼的负担和铸坯产生热裂的危险性。 提高脱硫指标与减少脱硫剂的浪费成为脱硫生产过程中的两个主要的目标。 目前广泛采用的脱硫工艺有喷吹法脱硫和 KR法脱硫 1。 KR脱硫工艺过程主要是:根据准备站钢包中铁水的重量、温度、成份、搅拌速度、大罐概况等主要参数,得到须加入脱硫剂的质量、搅拌头的搅拌速度、搅拌时间三个重要控制参数,然后对脱硫设备进行生产控制 -主要是将由耐火材料浇铸并经烘烤的十字形搅 拌头 ,插入有定量铁水的铁水罐中旋转 ,使铁水产生漩涡;经过称量的脱硫剂由给料器加入到铁水表面 ,并被漩涡卷入铁水中 ,脱硫剂在不断地搅拌过程中与铁水中的硫产生化学反应 ,从而达到脱硫的目的。 由于脱硫过程中存在很多机理和非机理、确定和不确定、线性和非线性的因素,其模型的建立具有很大的复杂性。传统的研究方法依据脱硫理论,化学反应和质量守恒理论,通过求解偏微分方程得到系统的机理模型和经验公式。但是这种方法存在建模过程复杂,模型通用性不强,精度不高和维护困难等缺点。 随着计算机技术的发展,采用计算机进行超大规模的数据分析 和数据处理成为可能。同时,神经网络理论的发展给我们提供了新的建模工具。如果能够采用神经网络理论建立适合计算机分析处理的脱硫工艺模型,对于提高脱硫效率和提高脱硫生产的自动化水平,降低脱硫成本,具有重要的实际意义和理论参考价值。但若不考虑工艺情况 ,建立起来的一个预报模型往往得不到比较理想的效果。 本文基于脱硫的工艺,从改变模型结构的思想出发,提出一种多神经网络模型来预报脱硫控制的工艺参数。 KR脱硫工艺控制模型实质上是一个多输入多输出 (MIMO)的严重非线性系统,要想达到控制参数计算机系统自动计算和设定的目的,必 须建立一个能够无限逼近这一严重非线性 MIMO系统的智能控制模型来替代操作工人的经验,并且该系统应该具有自学习的功能,可通过现场的数据,对模型进行不断的优化。人工神经网络中的多层前馈网络误差反向传播算法 (简称 BP 算法 )理论研究已经比较深入、成熟,在nts武汉科技大学本科毕业设计 (论文 ) 2 工程实际中应用也比较广泛、成功。另外 BP算法的实现比较容易。只要网络结构选择合理,就能无穷逼近任意非线性函数,这一特性非常适合处理严重非线性问题。 但是一般的 BP算法也存在诸如学习速率慢、训练效率不高等缺点,所以本文对传统的 BP算法做了改进,使其能够更好地完成训练任 务。 nts武汉科技大学本科毕业设计 (论文 ) 3 第 2 章 神经网络简介 2.1 神经网络研究与发展 40年代初,美国 McCulloch和 Pitts从信息处理的角度,研究神经细胞行为的数学模型表达,提出了二值神经元模型。 MP模型的提出开始了对神经网络的研究进程。 1949年心理学家 D.O.Hebb 提出著名的 Hebb学习规则,即由神经元之间结合强度的改变来实现神经学习的方法。虽然 Hebb学习规则在人们研究神经网络的初期就已提出,但是其基本思想至今在神经网络的研究中仍发挥着重要作用。 50年代末期, Rosenblatt提出感知机模型 (Perceptron)2,首先从工程角度出发,研究了用于信息处理的神经网络模型。这是一种学习和自组织的心理学模型,它基本符合神经生理学的原理。感知机虽然比较简单,却已具有神经网络的一些基本性质,如分布式存贮、并行处理、可学习性、连续计算等。这些神经网络的特性与当时流行串行的、离散的、符号处理的电子计算机及其相应的人工智能技术有本质上的不同,因此引起许多研究者的兴趣,在 60代掀起了神经网络研究的第一次高潮。但是,当时人们对神经网络的研究过于乐观,认为只要将这种神经元互连成一 个网络,就可以解决人脑思维的模拟问题。然而,后来的研究结果却使人们走到另一个极端上。 60年代末,美国著名人工智能专家 Minsky 和 Papert对 Rosenblatt 的工作进行了深人研究,出版了有较大影响的 Perceptron 一书,指出感知机的功能和处理能力的局限性,甚至连 XOR(异或 )这样的问题也不能解决。同时也指出如果在感知器中引入隐含神经元,增加神经网络的层次,可以提高神经网络的处理能力,但是却无法给出相应的网络学习算法。另一方面,由于 60年代以来,集成电路和微电子技术日新月异的发展,使得电子计算机的 计算速度飞速提高,加上那时以功能模拟为目标、以知识信息处理为基础的知识工程等研究成果给人工智能从实验室走向实用带来了希望。这些技术进步给人们造成这样的认识:以为串行信息处理及以它为基础的传统人工智能技术的潜力是无穷的,这就暂时掩盖了发展新型计算机和寻找新的人工智能途径的必要性和迫切性。另外,当时对大脑的计算原理、对神经网络计算的优点、缺点、可能性及其局限性等还很不清楚。总之,认识上的局限性使对神经网络的研究进入了低潮。 在这一低潮时期,仍有一些学者扎扎实实地继续着神经网络模型和学习算法的基础理论研究,提出了 许多有意义的理论和方法。其中主要有自适应共振理论、自组织映射、 nts武汉科技大学本科毕业设计 (论文 ) 4 认知机网络模型理论、 BSB 模型等等,为神经网络的发展奠定了理论基础。 进入 80年代,基于“知识库”的专家系统的研究和运用在许多方面取得了较大成功。但在一段时间以后,实际情况表明专家系统并不像人们所希望的那样高明,特别是在处理视觉、听觉、形象思维、联想记忆以及运动控制等方面,传统的计算机和人工智能技术面临着重重困难。模拟人脑的智能信息处理过程,如果仅靠串行逻辑和符号处理等传统的方法来解决复杂的问题,会产生计算量的组合爆炸。因此,具有并行分布处理模 式的神经网络理论又重新受到人们的重视。对神经网络的研究又开始复兴,掀起了第二次研究高潮。 1982年,美国加州工学院物理学家 John Hopfield 提出了模仿人脑的神经网络,即著名的 Hopfield模型。他引入了“能量函数”的概念,使得网络稳定性研究有了明确的判据。 Hopfield模型的电子电路物理实现为神经计算机的研究奠定了基础,并将其应用于目前电子计算机尚难解决的计算复杂度为 NP 完全型的问题,取得很好的效果。从事并行分布处理研究的学者,于 1985年将 Hopfield 模型引入随机机制,用统计物理学的概念 和方法研究神经网络,提出了 Boltzmann机。 1986年 Rumelhart等人在多层神经网络模型的基础上,提出了多层神经网络模型的反向传播学习算法 (BP算法 )3,解决了多层前向神经网络的学习问题,证明了多层神经网络具有很强的学习能力,它可以完成许多学习任务,解决许多实际问题。 近十几年来,许多具备不同信息处理能力的神经网络已被提出来并应用于许多信息处理领域,如模式识别、自动控制、信号处理、决策辅助、人工智能等方面。神经计算机的研究也为神经网络的理论研究提供了许多有利条件,各种神经网络模拟软件包、神经网 络芯片以及电子神经计算机的出现,体现了神经网络领域的各项研究均取得了长足进展。同时,相应的神经网络学术会议和神经网络学术刊物的大量出现,给神经网络的研究者们提供了许多讨论交流的机会。 虽然人们已对神经网络在人工智能领域的研究达成了共识,对其巨大潜力也毋庸置疑,但是须知,人类对自身大脑的研究,尤其是对其中智能信息处理机制的了解,还十分肤浅。因而现有的研究成果仅仅处于起步阶段,还需许多有识之士长期的艰苦努力。 概括以上的简要介绍,可以看出,当前又处于神经网络理论的研究高潮,不仅给新一代智能计算机的研究带来巨大影 响,而且将推动整个人工智能领域的发展。但另一方 面,由于问题本身的复杂性,不论是神经网络原理自身,还是正在努力进行探索和研究 nts武汉科技大学本科毕业设计 (论文 ) 5 的神经计算机,目前都还处于起步发展阶段。 2.2 人工神经网络研究与应用的主要内容 为了了解人工神经网络,我们首先分析一下现行计算机所存在的问题。尽管冯诺依曼型计算机在当今世界发挥着巨大的作用,但它在智能化信息处理过程中存在着许多局限性。我们简单分析一下冯诺依曼型计算机求解某个问题所采用的方法 : (1)根据该问题的特点,建立合适的数学模型。 (2)根据所建立的数 学模型的原始数据资料,生成适合于输入计算机的程序和数据。 (3)计算机的控制器命令输入器将计算步骤的初始数据记录到存贮器中。 (4) 控制器根据计算步骤的顺序,依次按存贮器地址读出第一个计算步骤,然后根据读出步骤的规定,控制运算器对相应数据执行规定的运算操作。 (5)反馈器从反馈信号中得知运算器操作完毕,把所得的中间结果记录到存贮器某个确定位置存贮好。 (6)反馈信号通知控制器再取第二个计算步骡,然后重复上述的执行过程。一直到整个运算完成后,控制器就命令输出器把存贮器中存放的 最终结果用打印、显示或绘图等方式输出。 将以上整个计算过程概括起来,可以看出现行冯诺依曼计算机有以下三个主要特点: (1)它必须不折不扣地按照人们已经编制好的程序步骤来进行相应的数值计算或逻辑运算,它没有主动学习的能力和自适应能力,因此它是被动的。 (2)所有的程序指令都要调入 CPU一条接一条地顺序执行。因此它处理信息的方式是集中的、串行的。 (3)存贮器的位置 (即地址 )和其中存贮的具体内容无关。因此,在调用操作的指令或数据时,总是先找它所在存贮器的地址,然后再查出所存贮的 内容。这就是说,存贮内容和存贮地址是不相关的。 由于现行计算机的上述特点,一方面它在像数值计算或逻辑运算这类属于顺序性(串行性 )信息处理中,表现出远非人所能及的速度;另一方面,在涉及人类日常的信息活动,例如识别图形、听懂语言等,却又显得那样低能和笨拙。 实际上,脑对外界世界时空客体的描述和识别是认知的基础。认知问题离不开对低层次信息处理的研究和认识。虽然符号处理在脑的思维功能模拟等方面取得了很大进nts武汉科技大学本科毕业设计 (论文 ) 6 展,但它对诸如视觉、听觉、联想记忆和形象思维等问题的处理往往感到力不从心。所以符号处理不可能全面解决认知 问题和机器智能化问题 ,它对高层次脑功能的宏观模拟很有效,但对一些低层次的模式处理则至今还有许多困难。 正是由于认识到传统的冯诺依曼计算机在智能信息处理中的这种难以逾越的局限性 ,使得人们考虑到有必要进一步了解分析人脑神经系统信息处理和存贮的机理特征 ,以便寻求一条新的人工神经网络智能信息处理途径。 人工神经网络研究采用自下而上的方法,从脑的神经系统结构出发来研究脑的功能,研究大量简单的神经元的集团信息处理能力及其动态行为。目前,神经网络的研究使得对多年来困扰计算机科学和符号处理的一些难题可以得到比较令人满意的 解答,特别是对那些时空信息存贮及并行搜索、自组织联想记亿、时空数据统计描述的自组织以及从一些相互关联的活动中自动获取知识等一般性问题的求解,更显示出独特的能力。由此引起了智能研究者们的广泛关注,并普遍认为神经网络方法适合于低层次的模式处理 4。 人工神经网络的研究方兴未艾,很难准确地预测其发展方向。但就目前来看,人工神经网络的研究首先须解决全局稳定性、结构稳定性、可编程性等问题。现今的研究工作应包含以下的一些基本内容 5: (1)人工神经网络模型的研究 神经网络原型研究,即大脑神经网络的生 理结构、思维机制。 神经元的生物特性。如:时空特性、不应期、电化学性质等的人工模拟。 易于实现的神经网络计算模型。 利用物理学的方法进行单元间相互作用理论的研究。如:联想记忆模型。 神经网络的学习算法与学习系统。 (2)神经网络基本理论研究 神经网络的非线性特性,包括自组织、自适应等作用。 神经网络的基本性能,包括稳定性、收敛性、容错性、鲁棒性、动力学复杂性。 神经网络的计算能力与信息存贮容量。 nts武汉科技大学本科毕业设计 (论文 ) 7 开展认知科学的研究、探索,包括感知、思考、记忆和语 言等的脑信息处理模型。采用诸如连接机制等方法,将认知信息处理过程模型化,并通过建立神经计算学 来代替算法。 (3)神经网络智能信息处理系统的应用 认知与人工智能,包括模式识别、计算机视觉与听觉、特征提取、语音识别语言翻译、联想记忆、逻辑推理、知识工程、专家系统、故障诊断、智能机器人等。 优化与控制,包括优化求解、决策与管理、系统辨识、鲁棒性控制、自适应控制、并行控制、分布控制、智能控制等。 信号处理,包括自适应信号处理 (自适应滤波、时间序列预测、谱估计、消噪、检测、 阵列处理 )和非线性信号处理 (非线性滤波、非线性预测、非线性谱估计、非线性编码、中值处理 )。 传感器信息处理,包括模式预处理变换、信息集成、多传感器数据融合等。 (4)神经网络的软件模拟和硬件实现 在通用计算机、专用计算机或者并行计算机上进行软件模拟,或由专用数字信号处理芯片构成神经网络仿真器。 由模拟集成电路、数字集成电路或者光器件在硬件上实现神经芯片。软件模拟的优点是网络的规模可以较大,适合于用来验证新的模型和复杂的网络特性。硬件实现的优点是处理速度快,但由于受器件物理因素的 限制,根据目前的工艺条件,网络规模不可能做得太大,仅几千个神经元,但代表了未来的发展方向,因此特别受到人们的重视。 (5)神经网络计算机的实现 计算机仿真系统。 专用神经网络并行计算机系统。 光学实现。 生物实现。 nts武汉科技大学本科毕业设计 (论文 ) 8 关于智能本质的研究是自然科学和哲学的重大课题之一,对于智能的模拟和机器再现肯定可以开发拓展出一代新兴产业。由于智能本质的复杂性,现代智能研究已超越传统的学科界限,成为脑生理学、神经科学、心理学、认知科学、信息科学、计算机科学、微电子学,乃至 数理科学共同关心的“焦点”学科。人工神经网络的重大研究进展有可能使包括信息科学在内的其他学科产生重大突破和变革。展望人工神经网络的成功应用,人类智能有可能产生一次新的飞跃。 2.3 常用神经网络原理及学习算法 我们常用的神经网络主要有感知器网络 、 线性神经网络、 BP网络等。 2.3.1 感知器网络 1. 感知器模型 (如图 2.1) 图 2.1 感知器模型 (1)I/O关系: 00011yyybpwyniiii(2)单层感知器模型如图 2.2 定义加权系数 :ijW为第 i个神经元到第 j 个神经元之间的连接值。 第 i个输出: ininiii bpppwwwy 2121 (2.1) nts武汉科技大学本科毕业设计 (论文 ) 9 矩阵形式:nnmnmmnnbbbpppwwwwwwwwwyyy2121212222111211321图 2.2 单层感知器模型 向量形式: BWPY 图形解释: 对 n=2 的情况: bpwpwy 2211 ,为一条直线。 设有教师向量 TmtttT 211t =0 or 1 输入向量 TnPPPP . .21初始加权阵0W偏差 B 则 )()()()()()1()()()1(kYkTkEkEkBkBXkEkWkW T (2.2) 该算法属于 学习规则类,相应的 MATLAB 函数为 learnp。 MATLAB调用: 该函数的调用命令为: dW,LS=learnp(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) db,LS=learnp(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS) nts武汉科技大学本科毕业设计 (论文 ) 10 各参数的具体意义可参考神经网络工具箱的用户指南。 2. 训练步骤: (1)对于所要解决的问题,确定输入向量 X,目标向量 T,由此确定维数及网络结构参数, n,m; (2)参数初始化; (3)设定最大循环次数; (4)计算网络输出; (5)检查输出矢量 Y与目标矢量 T是否相同,如果时,或以达最大循环次数,训练结束,否则转入 (6); (6)学习 )()()1()()()1(kEkBkBXkEkWkW T 并返回 (4)。 上述的整个训练过程我们可以用 MATLAB工具箱中的函数 train.m来完成,其调用方式如下: net,tr=train(net,P,T,Pi,Ai)。 3. 学习算法的收敛性: 可证:在训练样本 PX (p=1,2 k)是线性可分时,采用上述的学习方法,在有限次迭代后,必能归到正确解。 4. 局限性讨论: (1)由于激活函数为阈值函数,输出矢量只能取 0, 1,说明仅可以解决简单的分类问 题; (2)输入矢量线性可分时,学习在有限次数内收敛; (3)输入矢量的奇异性导致较慢的收敛。比如当输入 /输出矢量分别为: P=-0.5 0.5 +0.3 0.1 80 -0.5 +0.5 0.5 +1.0 100; T=1 1 0 0 1时,必然导致训练的困难; (4)异或问题不可解。 5. 修正方法: 归一化规则:PPEPPATW TT )( (2.3)在 神经网络工具箱中提供了归一化 6感知器学习规则的函数 learnpn.m。归一化感nts武汉科技大学本科毕业设计 (论文 ) 11 知器学习规则相对于原始的感知器学习规则,训练时间较长,但是对于含有奇异样本的输入矢量时,归一化感知器学习规则可谓得心应手 。 本小节讨论了神经网络的最初模型 感知器网络,可得出以下结论 : (1)单层感知器网络用于线性问题的分类是有效的 ,其学习算法在一定条件下是收敛性的; (2)输入向量含有奇异向量时,感知器学习算法可采用归一化学习算法; (3)单层感知器对于非线性分类问题能 力有限。 感知器网络在人工神经网络的研究中有着重 要意义和地位,其学习算法的自组织、自适应思想,是神经网络学习算法的基础。 2.3.2 线性神经网络 1. 线性神经元模型 如图 2.3所示: 图 2.3 线性神经元模型 (1)I/O关系: a=purelin(W*P+b) (2)W-H学习算法: 定义一线性网络的误差为: 22 2121),( WPTATBWE 根据梯度下降法,对第 i 个输出节点有: jiiijij PatWEW (2.4) 或表 示为: ijjiijbPW (2.5) nts武汉科技大学本科毕业设计 (论文 ) 12 称为 W-H学习规则 7,其中 为学习速率。 这里定义i为第 i各节点的输出误差iii at 2. 训练步骤: (1)表达:计算训练的输出矢量 A=W*P+B,以及与期望输出之间的误差 E=T-A; (2)检查 :将网络输出 误差的平方和与期望误差相比较,如果其值小于期望误差,或训练以达到事先设定的最大训练次数,则停止训练;否则继续: (3)学习:采用 W-H学习规则计算权值和偏差,并返回到 (1)。 3. 讨论: (1)收敛性 修正的 学习规则, )(kP 标么化: 2)()()()()1(kPkPkekWkW )()( 22 kPkP j )()()()( kWkPktke T )()()()()()( kWkPkWkPktke TT 代入 )()()()()()(2kekPkPkPkeke T 即: e(k+1)-e(k)= e(k) (2.6) 当 00 (0,2) 实际取值范围 (0.1,1) 可以取接近 1的数。或者照以下公式: =0.99*1/max(detP(k)PT (k) (2.7) (2)MATLAB 中函数: lr=0.99*maxlinlr(P,1)。 4. 线性神经网络小结: (1)由于该网络采用线性作用函数,可以处理连续输入模式。网络可用于模式联想和函数的线性逼近,线性系统的建模和滤波等。 nts武汉科技大学本科毕业设计 (论文 ) 13 (2)网络采用 W-H学习规则,该方法 在满足条件学习率 0H: 1a tansig )(111,1 bpIW tansig(x)=tanh(x)=(ex-e-x)/(ex+e-x) H-O: )( 211,22 baLWp u relina nts武汉科技大学本科毕业设计 (论文 ) 15 输入层神经元个数 n 隐含层神经元个数 n1 输出层神经元个数 s2 学习训练: QQ tptptp ,. ., 2211 输入 q组样本: 1p , 2p ,.,qpip nR期望输出: 1T , 2T ,.,qT2sRT 网络输出: 21a , 22a ,.,qa222 sRa 均方误差: )()( 22 atEeEXF 向量情况: )()()( atatEeeEXF TT )()()()()()()( kekekaktkaktXF TT (2)MATLAB函数: 旧版下的训练函数为: trainbp.m Tp=disp_freq max_epoch err_goal lr; w,b,epochs,errors=trainbp(w,b, F ,P,T,Tp); F 为网络的激活函数名: tansig , logsig , purelin 而在新版下完全不同:首先建立一个网络 net=newff(-2 2,5 1, tansig purelin , traingd );计算输出: y1=sim(net,P); 绘图: plot(P,T, * ); 训练: net,tr=train(net,P,T); 训练函数有很多种,如: traingd,traingdm,traingdx,trainlm。 在训练之前要对网络进行初始化,并设置好训练参数。 初始化: net.iw1,1=W10; net.b1=B10; net.lw2,1=W20; net.b2=B20; 参 数设置: nts武汉科技大学本科毕业设计 (论文 ) 16 net.trainParam.epochs=100; %最大训练次数 net.trainParam.goal=0.01; %训练所要达到的精度 net.trainParam.show=10; %在训练过程中显示的频率 net.trainParam.lr=0.1; %学习速率 2. BP网络训练的几种模式: (1)批处理模式 (batch mode) 训练过程以所有样本为一个 单位时间 。训练时计算出所有样本的整体误差后,加权系数才调整。 MATLAB函数 trainb, 非直接调用,用 net.trainFcn 说明 。 (2)模式学习模式 (pattern mode) 训练过程输入一个样本,计算学习误差,调整加权系数。 MATLAB函数: trainc, trains,trainr非直接调用,用 net.trainFcn 说明。 3.1.2 BP网络设计问题 1. BP 网络主要作用: (1)函数逼近:用输入矢量和相应的输出矢量训练网络逼近某个函数。 (2)模式识别:用一个特定的输出矢量将它与输入矢量联系起来。 (3)分类:把输入矢量以所定义的合适的方法进行分类。 (4)数据 压缩:减少输出矢量维数以便于传输或存储。 在人工神经网络的实际工程应用中,特别在自动控制领域中,大多数神经网络模型是采用 BP网络或它的变化形式,它也是前向网络的核心部分,体现了人工神经网络最精华的部分。 BP神经网络模型是人工神经网络的重要模型之一。通常 BP 算法是通过一些学习规则来调整神经元之间的连接权值 ,在学习过程中 ,学习规则以及网络的拓扑结构不变。然而 ,一个神经网络的信息处理功能不仅取决于神经元之间的连接强度 ,而且与网络的拓扑结构 (神经元的连接方式 )、神经元的输入输出特性和神经元的阈值有关。因而 ,神经网 络模型要加强自身的适应和学习能力 ,应该知道如何合理地自组织网络的拓扑结构 ,改变神经元的激活特性以及在必要时调整网络的学习参数等。所以 ,BP神经网络的学习不仅涉及到权值的学习 ,而且还涉及到网络结构、神经元的输入输出特性 ,甚至学习规则本身的学习。 2. 在进行 BP网络的设计时,一般应从网络的层数,每层中的神经元个数和激活函数、 nts武汉科技大学本科毕业设计 (论文 ) 17 初始值以及学习速率等几个方面来进行考虑 8。 (1)网络层数 理论上已经证明:具有至少一个 S型隐含层加上一个线性输入层的网络,能够逼近任何有理函数。增加层数可以进一步的降低误差,提高 精度,但同时也使网络复杂化。另外不能用仅具有非线性激活函数的单层网络来解决问题。因为能用单层网络完美解决的问题,用自适应线性网络也一定能解决,而且自适应线性网络的运算速度还要快。而对于只能用非线性函数解决的问题,单层精度又不够高,也只有增加层才能达到期望的结果。 (2)隐含层神经元数 网络训练精度的提高,可以通过采用一个隐含层而增加其神经元数的方法来获得,这在结构实现上,要比增加更多的隐含层要简单的多。 为了对隐含层神经元数在网络设计时所起的作用有一个比较深入的理解,下面先给出一个有代表性的实例,然后从中得 出几点结论 。 例:用两层 BP网络实现 “ 异或 ” 功能。网络要实现如下的输入 /输出功能: 0110,1010 1000 TP 对于一个二元输入网络来说,神经元数即为分割线数。所以隐含层神经元数应 2。 输出节点与隐含层节点相同,显然该输出层是多余的,该网络也不能解决问题,因此需要增加隐含层的节点数。 我们针对 1S =2, 3, 4, 5, 6以及为 20、 25和 30时对网络进行设计。选择误差目标为 err_goal=0.02,并通过对网络训练时所需的循环次数和训练时间的情况 来观察网络求解效果。整个网络的训练结果如表 3.1 所示。 1S =2, 3, 4, 5, 6, 20, 25和 30时的网络训练结果。 我们评价一个网络设计的好坏,首先是它的精度,再一个就是训练时间。从表 3.1总可以看出下面几种情况: 神经元数太少,网络不能很好的学习,需要训练的次数也多,训练精度也不高。 一般而言,网络隐含层神经元的个数 1S 越多,功能越大,但当神经元数太多,会产生其它的问题。 当 1S =3,4,5 时,其输出精度都相仿,而 1S =3时的训练次数最多。 一般来说,网络 1S 的选择原则是:在能够解决问题的前提下,再加上一个到两个神 经元以加快误差的下降速度即可。 nts武汉科技大学本科毕业设计 (论文 ) 18 表 3.1 网络训练结果 1S 时间 (秒 ) 循环次数 2 5.71 118 3 4.40 90 4 4.39 88 5 4.45 85 6 4.62 85 20 3.57 68 25 4.06 72 30 5.11 96 (3)初始权值的选取 一般取初始权值在 (-1, 1)之间的随机数。 另外, 威得罗等人在分析了两层网络是如何对一个函数进行训练后,提出一种选定初始权值的策略 选择权值的量级为r S1 ,其中 1S 为第一层神经元数, r为输入个数。在旧版 MATLAB(版本低于 5
- 温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

人人文库网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
2:不支持迅雷下载,请使用浏览器下载
3:不支持QQ浏览器下载,请用其他浏览器
4:下载后的文档和图纸-无水印
5:文档经过压缩,下载后原文更清晰
|