智能控制 课件 第二章-神经网络控制系统_第1页
智能控制 课件 第二章-神经网络控制系统_第2页
智能控制 课件 第二章-神经网络控制系统_第3页
智能控制 课件 第二章-神经网络控制系统_第4页
智能控制 课件 第二章-神经网络控制系统_第5页
已阅读5页,还剩70页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

神经网络控制系统NeuralNetworkControlSystem第二章神经网络控制系统Ch22.1人工神经网络概述2.2典型神经网络及非线性建模2.3神经网络建模2.4神经网络控制2.5基于动态神经网络多模型自适应控制器设计与实现人工神经网络概述BasicConceptofNeuralNetwork2.1人工神经网络概述2.1一

生物神经网络二

人工神经元模型三

神经网络模型四

神经网络学习生物神经网络一神经元主要由三部分组成:树突、细胞体和轴突。树突:神经元的输入,将电信号传送到细胞体。细胞体:对这些输入信号进行整合并进行阈值处理。轴突:神经元的输出,将细胞体信号导向其他神经元。突触:一个神经细胞的轴突和另一个神经细胞树突的结合点。生物神经网络一人脑(生物神经网络)约由101l~1012个神经元组成,每个神经元约与104~105个神经元联接,形成错纵复杂而又灵活多变的神经网络。虽然每个神经元都比较简单,但是如此多的神经元经过复杂的联接却可以演化出丰富多彩的行为方式。人工神经元模型二人工神经网络(简称神经网络)是由人工神经元组成的网络,它是从微观结构和功能上对人脑的抽象、简化,反映了人脑功能的若干基本特征,如并行信息处理、学习、联想、模式分类、记忆等是模拟人类智能的一条重要途径。人工神经网络可以通过电子电路实现。人工神经元(简称神经元)是人工神经网络的处理单元。分别是指与第i个神经元连接的其它神经元的输出;是非线性函数,称为作用函数(激活函数)。是第i

个神经元的输出,它可与其它多个神经元连接;分别是指其它神经元与第i个神经元连接权值;是第i

个神经元的阈值;是第i个神经元的净输入;1激活函数第i

个神经元的输出设则输入加权和超过阈值时,输出为“1”,即“兴奋”状态;反之,输出为“0”,是“抑制”状态。若把阈值也作为一个权值,则式中,。1激活函数2非对称型Sigmoid函数2对称型Sigmoid函数3对称型阶跃函数采用阶跃作用函数的神经元,称为阈值逻辑单元。4线性函数

输出等于输入饱和线性作用函数对称饱和线性作用函数线性饱和线性对称饱和线性5高斯函数人工神经网络模型三连接权值并非固定不变,而是按照一定的规则和学习算法进行自动修改。体现出神经网络的“进化”行为。神经元模型、数量及互连模式确定了神经网络的结构,神经网络结构和学习算法决定了神经网络的性能。神经元的连接并不只是一个单纯的传送信号的通道,而是有一个加权系数

(权值),相当于生物神经系统中神经元的突触强度,它可以加强或减弱上一个神经元的输出对下一个神经元的刺激。若干个神经元通过相互连接就形成一个神经网络,这个神经网络的拓扑结构称为神经网络的互连模式。1层次型神经网络1神经元分层排列,顺序连接。由输入层施加输入信息,通过中间各层,加权后传递到输出层后输出。每层的神经元只接受前一层神经元的输入,各神经元之间不存在反馈和相互连接。可用于函数逼近、模式识别。感知器网络BP网络径向基函数网络1层次型神经网络2在前向神经网络中有的在同一层中的各神经元相互有连接,通过层内神经元的相互结合,可以实现同一层内神经元之间的横向抑制或兴奋机制,这样可以限制每层内能同时动作的神经元数,或者把每层内的神经元分为若干组,让每组作为一个整体来动作。1层次型神经网络3在层次网络结构中,只在输出层到输入层存在反馈,即每一个输入节点都有可能接受来自外部的输入和来自输出神经元的反馈。这种模式可用来存储某种模式序列,也可以用于动态时间序列过程的神经网络建模。Elman网络2互连型神经网络任意两个神经元之间都可能有相互连接的关系。有的神经元之间是双向的,有的是单向的。神经网络处在一种不断改变状态的动态过程中。它将从某个初始状态开始,经过若干次的变化,才会到达某种平衡状态,根据神经网络的结构和神经元的特性,还有可能进入周期振荡或其它如浑沌等状态。主要用作各种联想存储器或用于求解最优化问题。Hopfield网络Boltzman机网络神经网络学习四学习:神经元之间的连接权值按照一定的学习规则进行自动调整,调整的目标是使性能函数达到最小。学习是神经网络中最重要的特征之一。它使神经网络具有自适应和自组织能力。学习算法对网络的学习速度、收敛特性、泛化能力等有很大的影响。按学习方式分:无监督学习、有监督学习。按学习规则分:Hebb学习规则、Delta学习规则。1无监督的学习神经网络根据预先设定的规则自动调整权值。聚类操作Hebb规则2有监督学习神经网络根据实际输出与期望输出的偏差,按照一定的准则调整各神经元连接的权系数。期望输出称为导师信号Delta学习规则3Hebb学习规则Hebb规则认为两个神经元同时处于激发状态时,它们之间的连接强度将得到加强。它是无监督学习方法,只根据神经元连接间的激活水平改变权值,又称为相关学习或并联学习。4Delta学习规则神经元的期望输出(教师信号);神经元的实际输出;神经元的作用函数;神经元的输入权值向量,即为输入向量,即误差目的:误差准则函数达到最小,实际输出逼近于期望输出。误差准则函数实质:函数最优化过程。基础:最优化算法中的梯度下降法。思想:沿着E的负梯度方向不断修正w,直到E达到最小。4Delta学习规则典型神经网络TypicalNeuralNetworks2.2前馈神经网络学习算法2.2一

梯度下降算法二BP神经网络及其学习算法三RBF神经网络及其学习算法梯度下降算法一Delta学习规则目的:误差准则函数达到最小,实际输出逼近于期望输出。误差准则函数实质:函数最优化过程。基础:最优化算法中的梯度下降法。思想:沿着E的负梯度方向不断修正w,直到E达到最小。梯度下降算法一梯度

给定一个元多变量函数,在向量空间内具有一阶连续偏导数,则对于内的任一点都可以定义出一个向量这个向量称为多变量函数在点上的梯度。给定n

维多变量函数,该函数在点上的Taylor级数展开为:Taylor级数展开利用梯度,有其中:梯度下降算法一梯度下降算法一极值设有多变量函数在点的某个邻域(

)内有定义,使得当时,对于所有都有()成立,则称为的极小(大)点,为函数的极小(大)值。当时,若对于所有都有()成立,则称为的强极小(大)点,为函数的强极小(大)值。若对所有都有()成立,则称为的全局极小(大)点,为函数的全局极小(大)值。若很小,近似为假设其中,很小的正数。极值存在的一阶必要条件证明:令,取若是极小点,且在点可微,则。有从而有所有满足上式的点都称为驻点。这与是极小点矛盾。所以梯度下降算法一1梯度下降算法思想为了实现在线寻优,算法一般以迭代的方式求极值。即:令其中为学习步长(

),向量代表一个搜索方向。算法任务:确定和,使。2梯度下降算法推导函数在点的一阶Taylor级数展开为欲使,上式右边的第二项必须为负,即由于,意味着当为最大负数时,函数的递减速度最快。梯度下降方向的向量为梯度下降学习算法常取固定常数,称为学习步长,它影响算法的收敛速度。例

给定函数,试用梯度下降法求其极值点。解:首先求函数的梯度若给定迭代初始值,那么在处的梯度为:3例题假设采用固定的学习步长,则梯度下降法的第一次迭代结果为:第二次迭代结果为:3例题注意:对于较小的学习步长梯度下降轨迹的路径总是与轮廓线正交,这是因为梯度与轮廓线总是正交的。4思考为了提高算法的学习速度,一般要增大学习步长。如果学习步长太大,算法会变得不稳定,振荡不会衰减,反而会增大。如何确定学习步长,使得算法既有较高的收敛速度,又保证学习算法稳定?4思考Delta学习规则又称误差修正规则。Delta学习规则数学表达式又4思考BP神经网络及其学习算法二BP神经网络:基于误差反向传播学习算法的多层前馈神经网络。它能够逼近任意非线性函数,可用于非线性系统建模和控制。输入层:隐含层:输出层:作用函数:1BP神经网络学习算法输入层:隐含层:输出层:设有Q

组数据,输入输出作用函数:误差准则函数瞬时误差采用梯度下降算法

并且用代替,向量标量1BP神经网络学习算法(i)输出层神经元权系数的调整权系数的迭代公式为表达简洁略去u1BP神经网络学习算法(ii)隐含层神经元权系数的调整权系数的迭代公式为表达简洁略去u2BP神经网络学习算法3算法流程①初始化,设置初始权系数w(0)为较小的随机数。②提供训练样本数据③

k=0随机完成按照P18,计算按照P20,计算④

判断是否满足终止条件若满足,则学习结束;否则,k=k+1

,回到③或3学习算法的改进收敛速度慢的原因连接权值过大,工作在Sigmoid饱和区,调节停止;采用较小的学习速率,增加了训练时间。

收敛速度慢的解决办法选取较小的初始权值;变化的学习速率或自适应学习速率:收敛速度慢RBF神经网络:径向基函数(RBF)网络是三层前馈网络。它能够逼近任意非线性函数,可用于非线性系统建模和控制。输入层:隐含层:输出层:RBF神经网络及其学习算法三设有Q

组数据,输入输出输入层:隐含层:输出层:1RBF神经网络学习算法1误差准则函数(i)输出层神经元权系数的调整迭代公式误差准则函数(ii)隐层神经元中心的调整迭代公式误差准则函数(iii)隐层神经元宽度的调整迭代公式2RBF神经网络学习算法2误差准则函数权系数的调整(中心和宽度已确定)由于中心和宽度已定,上式可看成是的函数求以上函数的极小值点相当于分别求下面函数的极小值点RBF神经网络学习的一种重要方法:首先,通过经验法或者聚类法确定中心和宽度;然后,采取最小二乘法求最优权值。最小二乘法2RBF神经网络学习算法2神经网络建模Neuralnetworkmodelling2.3神经网络建模

思想和方法:借助神经网络的逼近能力,通过学习获知系统差分方程中的未知非线性函数。神经网络与待辨识系统具有相同的输入,两者的输出误差被用作网络的训练信号。假设待辨识对象为非线性离散时间系统u(k)和y(k)分别为系统k时刻的输入和输出,m和n分别是输入时间序列和输出时间序列的阶次,m≤n。用静态前馈神经网络辨识非线性系统的步骤:1.获得系统输入输出数据,2.获得样本数据3.选择合适的神经网络结构,采用第6章介绍的神经网络学习算法训练神经网络。神经网络建模

采用RBF神经网络对离散模型进行逼近u(k)在[-2,2]上变化,系统BIBO稳定,y(k)在[-10,10]上变化。神经网络隐单元的个数为60个,中心在[-2,2]×[-10,10]上均匀选择,宽度为2。网络结构为2-60-1。采用最小二乘法确定网络的输出权值。训练样本数为3000。u(k)=sin(2πk/25),k∈(3000,3100]u(k)=sin(2πk/25)+sin(2πk/10),k∈[3100,3200]1神经网络建模实例1(i)石灰窑炉的生产过程含有约30%水分的CaCO3泥桨由左端输入,燃料油和空气由右端喷入燃烧,形成气流由右向左流动,以使泥桨干燥、加热并发生分解反应。最终生成的CaO(石灰)由右端输出,而废气由左端排出。主要控制量有两个,燃料流速u1和风量流速u2。被控量为炉窑热端的温度y1和炉窑冷端的温度y2,二者决定了炉内的温度分布曲线,它是影响产品质量和能耗的最关键的因素。2神经网络建模实例22神经网络建模实例2(ii)石灰窑炉的神经网络模型石灰窑NARMA方程是

神经网络方程样本数据结构8-20-10-2u1和u2:在(u1=1,u2=1)上迭加幅值为±0.2的PRBS信号2神经网络建模实例2神经网络控制NeuralNetworkControl2.4神经网络控制2.41神经网络监督控制2神经网络自适应控制3模型参考控制4神经网络内模控制5神经网络直接逆控制6神经网络控制实例神经网络监督控制:对人工或传统控制器进行学习,用神经网络控制器取代或逐渐取代原控制器。缺点:系统为开环,稳定性和鲁棒性不能保证。(i)神经网络监督控制11神经网络监督控制神经网络控制器通过学习,使e(t)或u1(t)趋近于零,从而使它取代常规控制器。一但出现干扰等,常规控制器重新起作用。优点:精度高,稳定性、鲁棒性和自适应性强。(ii)神经网络监督控制21神经网络监督控制自校正控制:根据系统辨识结果,调节控制器参数,使系统满足性能指标。直接自校正控制(直接逆控制)神经网络自适应控制包括自校正控制和模型参考控制。间接自校正控制2神经网络自适应控制模型参考控制:闭环系统的期望性能由参考模型描述,控制的目的是使被控对象的输出一致渐近地趋近于参考模型的输出。直接模型参考控制间接模型参考控制3模型参考控制4神经网络内模控制神经网络内模控制:用神经网络建立被控对象的正向模型和控制器。该方案有很好的鲁棒性。若模型精确且干扰为0,反馈信号为0,系统成为

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论