智能控制系统神经网络教学课件_第1页
智能控制系统神经网络教学课件_第2页
智能控制系统神经网络教学课件_第3页
智能控制系统神经网络教学课件_第4页
智能控制系统神经网络教学课件_第5页
已阅读5页,还剩51页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、神经网络的基本原理和结构 神经元是由细胞体、树突和轴突组成 图 生物神经元模型5.1神经细胞的结构与功能1神经网络的基本模型人工神经网络是对生物神经元的一种模拟和简化,是神经网络的基本处理单元。 人工神经元模型2神经元输出特性函数常选用的类型有:前向网络 ;有反馈的前向网络 ;层内有互联的前向网络 ;互联网络 人工神经网络的基本结构类型31)前向网络:典型的网络有:感知器网络、BP网络等。特点: 前向网络具有较强的学习能力,结构简单,易于编程。 前馈网络是静态非线性映射,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。 从计算观点,缺乏丰富的动力学行为有反馈的前向网络:典型的网络

2、有Hopfield神经网络特点: 若总节点(神经元)数为N,则每个节点有N个输入和一个输出。每个节点都是一样,互相连接。 反馈型网络是反馈动力学系统,需要工作一段时间后才能达到稳定。 Hopfield神经网络是反馈型网络中最简单应用最广的模型,具有联想记忆功能。 人工神经网络的基本结构类型 人工神经网络的基本结构类型神经网络的学习方法 从环境中获取知识并改进自身性能,主要指调节网络参数使网络达到某种度量,又称为网络的训练学习方式:监督学习非监督学习再励学习(强化学习)监督学习 对训练样本集中的每一组输入能提供一组目标输出。 网络根据目标输出与实际输出的误差信号来调节网络参数。教师神经网络比较环

3、境实际输出输入期望输出误差信号p(n)t(n)a(n)e(n)非监督学习与再励学习非监督学习:不存在教师,网络根据外部数据的统计规律来调节系统参数,以使网络输出能反映数据的某种特性再励学习:外部环境对网络输出只给出评价信息而非正确答案,网络通过强化受奖励的动作来改善自身的性能神经网络环境输入神经网络环境输入输出评价信息学习规则(learning rule):Hebb学习算法误差纠正学习算法概率式学习竞争学习算法神经网络的学习方法Hebb学习Hebb学习规则:无教师学习方法Hebb学习规则的物理解释:两个神经元同时处于激发状态时,相应的权值得到加强。13误差纠正学习(学习规则) 对于输出层第k个

4、神经元的实际输出: ak(n)目标输出: tk(n) 误差信号: ek(n) = tk(n) - ak(n)目标函数为基于误差信号ek(n)的函数,如误差平方和判据(sum squared error, SSE),或均方误差判据(mean squared error, MSE)误差纠正学习用梯度下降法求解对于感知器和线性网络:delta学习规则对于多层感知器网络:扩展的delta学习规则,bp算法wkjnkakPj概率式学习学习规则:竞争学习输出神经元之间有侧向抑制性连接,较强单元获胜并抑制其他单元,独处激活状态。(Winner takes all, WTA)wkjkpj前馈神经网络(feed

5、 forward NN):各神经元接受前级输入,并输出到下一级,无反馈,可用一有向无环图表示。图中结点为神经元(PE):多输入单输出,输出馈送多个其他结点。前馈网络通常分为不同的层(layer),第i层的输入只与第i-1层的输出联结。可见层:输入层(input layer)和输出层(output layer)隐层(hidden layer) :中间层5.2前向网络及其算法 感知器是1957年美国学者Rosenblatt提出的一种用于模式分类的神经网络模型。 感知器是由阈值元件组成且具有单层计算单元的神经网络,具有学习功能。 感知器是最简单的前馈网络,它主要用于模式分类,也可用在基于模式分类的学

6、习控制和多模态控制中,其基本思想是将一些类似于生物神经元的处理元件构成一个单层的计算网络 感知器网络1感知器图 单层感知器网络图 单个神经元的感知器感知器的输入输出关系:当输入的加权和大于或等于阈值,输出为1,否则为-1(或为0)。 感知器学习算法感知器学习算法:误差修正学习对应于线性判别函数对线性可分问题算法收敛,对线性不可分的数据算法不收敛多层感知器多层感知器: Multi-Layer Perceptron, MLPArchitecture:多层感知器的一致逼近性逻辑功能:单个阈值神经元可以实现任意多输入的与、或及与非、或非逻辑门。任何逻辑函数可由两层前馈网络实现当神经元的输出函数为Sig

7、moid等函数时,两层前馈网络可以逼近任意的多元非线性函数MLP的适用范围大大超过单层网络。问题:多层感知器的中间隐层不直接与外界连接,其误差无法直接计算。反向传播(Backpropagation)算法:从后向前(反向)逐层“传播”输出层的误差,以间接算出隐层误差。分两个阶段:正向过程:从输入层经隐层逐层正向计算各单元的输出。反向过程:由输出层误差逐层反向计算隐层各单元的误差,并用此误差修正当前层的权值。前项多层网络的BP学习算法2图 BP网络结构2.4.2 BP网络的标准学习算法学习的过程:神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。学习的本质:

8、对各连接权值的动态调整学习规则:权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。BP网络的标准学习算法-算法思想学习的类型:有导师学习核心思想:将输出误差以某种形式通过隐层向输入层逐层反传学习的过程:信号的正向传播 误差的反向传播将误差分摊给各层的所有单元各层单元的误差信号修正各单元权值BP网络的标准学习算法-学习过程正向传播:输入样本输入层各隐层输出层判断是否转入反向传播阶段:若输出层的实际输出与期望的输出(教师信号)不符误差反传误差以某种形式在各层表示修正各层单元的权值网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止2.4.2 BP网络的标准学习算

9、法 网络结构输入层有n个神经元,隐含层有p个神经元, 输出层有q个神经元变量定义输入向量;隐含层输入向量;隐含层输出向量;输出层输入向量;输出层输出向量;期望输出向量; BP网络的标准学习算法输入层与中间层的连接权值:隐含层与输出层的连接权值:隐含层各神经元的阈值:输出层各神经元的阈值:样本数据个数:激活函数: 误差函数:BP网络的标准学习算法第一步,网络初始化 给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值 和最大学习次数M。第二步,随机选取第 k个输入样本及对应期望输出 2.4.2 BP网络的标准学习算法第三步,计算隐含层各神经元的输入和输出BP网络的标准

10、学习算法第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数 。 BP网络的标准学习算法第六步,利用输出层各神经元的 和隐含层各神经元的输出来修正连接权值 。 BP网络的标准学习算法第七步,利用隐含层各神经元的 和输入层各神经元的输入修正连接权。 BP网络的标准学习算法第八步,计算全局误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。 BP算法尚存在以下一些缺点 由于采用非线性梯度优化算法,易形成局部极小而得不到整体最优;优化算法次数甚多使得学习效率低,

11、收敛速度很慢;BP网络是前向网络,无反馈连接,影响信息交换速度和效率;网络输入节点、输出节点由问题而定,但隐节点的选取根据经验,缺乏理论指导;在训练中学习新样本有遗忘旧样本的趋势,且要求每个样本的特征数目要相同。三种改进算法 :引入动量项 变尺度法 变步长法BP算法的改进算法3反馈网络是一种全连结加权无向图,可分为离散型和连续性两种 5.3Hopfield网络1离散Hopfield网络离散型网络:单层网络,有n各神经元节点,每个神经元输出连接到其他神经元输入,各节点没有自反馈每个节点有一个阈值,ij是神经元间的连接权值,每个神经元处于状态1(刺激值超过阈值)或-1。工作方式有两种:异步方式:每

12、次只有一个神经元节点进行状态调整,其 他节点的状态保持不变同步方式:所有神经元节点同时调整离散Hopfield网络实质是一个离散的非线性动力学系统。系统如果稳定,则可以从一种初态收敛到一个稳定状态;若系统不稳定,系统不可能出现无限发散。 反馈网络具有对称的连接权值 5.3Boltzmann机网络(BM网络) 2用于分类问题的BM网络,不含隐单元 BM网络运行分为两个阶段:1)学习和训练阶段,根据学习样本对网络进行训练,将知识分布地存储于网络的连接权中;2)工作阶段,根据输入运行网络得到合适的输出,这实质是按照某种机制将知识提取出来。反馈网络神经网络在接受外界输入时,将会分成不同的区域,不同区域

13、对不同模式具有不同的响应特征。各神经元放入连接权值具有一定的分布特性,最邻近的神经元互相激励,而较远的神经元则互相抑制,再远的又具有较弱的激励作用。在受外界刺激时,最强的地方形成一个气泡,称其为墨西哥帽。 5.3自组织特征映射网络3 自组织特征映射网络具有侧向联想力,如图右。输出节点呈二维阵列分布。输出节点与其邻域或其他节点广泛连接,互相激励。每个输入节点与输出节点之间由可变权值连接。通过某种规则,不断调整权值,使得在稳定是每个领域的所有节点对某种输入具有类似的输出,并且聚类的概率分布与输入模式的概率分布相接近。神经网络控制神经网络在控制中的作用 在传统的控制系统中用以动态系统建模,充当对象模

14、型;在反馈控制系统中直接充当控制器的作用;在传统控制系统中起优化计算作用;与其他智能控制方法如模糊逻辑、遗传算法、专家控制等相融合 5.4图 神经网络控制方框图 神经元自适应PID控制 基于BP神经网络控制参数自学习PID控制 BP神经网络具有逼近任意非线性函数的能力,而且结构和学习算法简单明确。通过神经网络自身的学习,可以找到某一最优控制律下的P,I,D参数。基于BP神经网络的PD控制系统结构如图所示,控制器由两个部分组成:经典的PID控制器:直接对被控对象进行闭环控制,并且KP,KI,KD三个参数为在线整定;神经网络NN:根据系统的运行状态,调节PID控制器的参数,以期达到某种性能指标的最

15、优化。即使输出层神经元的输出状态对应于PID控制器的三个可调参数KP,KI,KD,通过神经网络的自学习、调整权系数,从而使其稳定状态对应于某种最优控制律下的PID控制器参数。 1)事先选定BP神经网络NN的结构,即选定输入层节点数M 和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1; 2)采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3)对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的 输入; 4)前向计算NN的各层神经元的输入和输出,NN输出层的输 出即为PID控制器的三个可调参数K

16、P(k),KI(k),KD(k); 5)计算PID控制器的控制输出u(k),参与控制和计算; 6)计算修正输出层的权系数w(3)li(k); 7)计算修正隐含层的权系数w(2)ij(k); 8)置k=k+1,返回到“2)”。 基于BP神经网络的PID控制算法改进型BP神经网络控制参数自学习PID控制 将神经网络用于控制器的设计或直接学习计算控制器的输出(控制量),一般都要用到系统的预测输出值或其变化量来计算权系数的修正量。但实际上,系统的预测输出值是不易直接测得的,通常的做法是建立被控对象的预测数学模型,用该模型所计算的预测输出来取代预测处的实测值,以提高控制效果。采用线性预测模型的BP神经网

17、络PID控制器 1) 事先选定BP神经网络NN的结构,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1; 2) 用线性系统辨识法估计出参数矢量(k),从而形成一步预报模型式; 3) 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 4) 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 5) 前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 6) 计算PID控制器的控制输出u(k),参与控制和计算; 7)计算 和 ; 8) 计算修正输出层的权系数w(3)li(k); 9) 计算修正隐含层的权系数w(2)ij(k); 10) 置k=k+1,返回到“2)”。 线性预测模型的BP神经网络PID控制系统算法采用非线性预测模型的BP神经网络PID控制器 1) 事先选定BP神经网络NN的结构,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0),选定学习速率和平滑因子,k=1; 2) 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3) 对r(i),y(i),u(i-1),e(i)进

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论