人工神经元网络控制论_第1页
人工神经元网络控制论_第2页
人工神经元网络控制论_第3页
人工神经元网络控制论_第4页
人工神经元网络控制论_第5页
已阅读5页,还剩148页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工神经元网络控制论第一页,共一百五十三页,编辑于2023年,星期五2/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第二页,共一百五十三页,编辑于2023年,星期五3/1533.1引言人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。第三页,共一百五十三页,编辑于2023年,星期五4/153发展历史1943年,心理学家McCulloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。1944年Hebb提出了改变神经元连接强度的Hebb规则。1957年Rosenblatt首次引进了感知器概念(Perceptron)。1976年,Grossberg提出了自适应共振理论。1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。第四页,共一百五十三页,编辑于2023年,星期五5/153主要内容第五页,共一百五十三页,编辑于2023年,星期五6/1533.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力3.1引言第六页,共一百五十三页,编辑于2023年,星期五7/1533.1.1神经元模型神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件。xi输入信号,j=1,2,…,n;wij

表示从单元uj

到单元ui

的连接权值;si外部输入信号;ui

神经元的内部状态;θi

阈值;

yi神经元的输出信号;通常假设yi=f(Neti),而激励函数f有4种类型。第七页,共一百五十三页,编辑于2023年,星期五8/153激励函数类型阈值型分段线性型第八页,共一百五十三页,编辑于2023年,星期五9/153激励函数类型Sigmoid函数型Tan函数型第九页,共一百五十三页,编辑于2023年,星期五10/1533.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力3.1引言第十页,共一百五十三页,编辑于2023年,星期五11/1533.1.2神经网络的模型分类前向网络反馈网络(c)相互结合型网络(d)混合型网络第十一页,共一百五十三页,编辑于2023年,星期五12/1533.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力3.1引言第十二页,共一百五十三页,编辑于2023年,星期五13/1533.1.3神经网络的学习算法有导师学习无导师学习有导师学习:直接利用误差信息无导师学习:建立间接的评价函数第十三页,共一百五十三页,编辑于2023年,星期五14/153学习规则第十四页,共一百五十三页,编辑于2023年,星期五15/153仅仅根据连接间的激活水平改变权系数。它常用于自联想网络。最常见的学习算法是Hebb规则。若第i个与第j个神经元同时处于兴奋状态,它们之间的连接应加强,即

表示神经元j到神经元i的连接权值,η表示学习步长,Oj表示神经元j的输出,yi表示神经元i的输出。相关学习第十五页,共一百五十三页,编辑于2023年,星期五16/153纠错学习有导师学习方法,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。最常见的学习算法有δ规则、模拟退火学习规则。

Delta规则。定义指标函数

连接权阵的更新规则为第十六页,共一百五十三页,编辑于2023年,星期五17/153无导师学习学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。例如Winner-Take-All学习规则。基本思想是,假设输出层有no个输出神经元,且当输入为x时,第m个神经元的输出值最大,则称此神经元为胜者,并将与此胜者神经元相连的权系数进行更新。其更新公式为第十七页,共一百五十三页,编辑于2023年,星期五18/1533.1.1神经元模型3.1.2神经网络的模型分类3.1.3神经网络的学习算法3.1.4神经网络的泛化能力3.1引言第十八页,共一百五十三页,编辑于2023年,星期五19/1533.1.4神经网络的泛化能力当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。与输入矢量的个数、网络的节点数、权值和训练样本集数目之间存在密切的关系。第十九页,共一百五十三页,编辑于2023年,星期五20/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第二十页,共一百五十三页,编辑于2023年,星期五21/1533.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法3.2前向神经网络模型第二十一页,共一百五十三页,编辑于2023年,星期五22/1533.2.1网络结构单一神经元123第二十二页,共一百五十三页,编辑于2023年,星期五23/153单一神经元w0

为阈值,

wj

决定第j个输入的突触权系数。第二十三页,共一百五十三页,编辑于2023年,星期五24/153单层神经网络结构x0=1阈值未画出第二十四页,共一百五十三页,编辑于2023年,星期五25/153多层神经网络结构以单隐含层网络为例:Oj为隐含层的激励第二十五页,共一百五十三页,编辑于2023年,星期五26/1533.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法3.2前向神经网络模型第二十六页,共一百五十三页,编辑于2023年,星期五27/1533.2.2多层传播网络的BP学习算法有导师学习的基本思想单层网络的学习算法多层前向网络学习算法第二十七页,共一百五十三页,编辑于2023年,星期五28/153性能指标为φ(·)是一个正定的、可微的凸函数,常取1.有导师学习的基本思想神经网络可以通过对合适样本集来进行训练。网络的训练实质上是根据对所有样本的误差指标Ep达到极小的方法来实现突触权阵的调整,以满足当输入为Xp时其输出为Tp

。第二十八页,共一百五十三页,编辑于2023年,星期五29/153激励函数为线性函数时,可通过最小二乘法来学习。

激励函数为非线性函数时,可采用Delta规则,即梯度法,有2.单层网络的学习算法α是学习因子

第二十九页,共一百五十三页,编辑于2023年,星期五30/1533.多层前向网络的学习算法网络模型第1个隐含层:

第r+1个隐含层:输出层第三十页,共一百五十三页,编辑于2023年,星期五31/153采用梯度法:其中:定义广义误差:可得:BP学习算法第三十一页,共一百五十三页,编辑于2023年,星期五32/153输出层时,有:隐含层时,有:反向误差传播第三十二页,共一百五十三页,编辑于2023年,星期五33/153假设对于输入期望的输出网络权系数的初始值见图。试用BP算法训练此网络(只给出一步迭代学习过程)。这里,取神经元激励函数:,学习步长为。例3-1第三十三页,共一百五十三页,编辑于2023年,星期五34/153当前输出第三十四页,共一百五十三页,编辑于2023年,星期五35/153计算广义误差第三十五页,共一百五十三页,编辑于2023年,星期五36/153连接权系数更新第三十六页,共一百五十三页,编辑于2023年,星期五37/153学习流程第三十七页,共一百五十三页,编辑于2023年,星期五38/153(1)初始化设置学习因子η>0。较大时,收敛快,但易振荡。较小时,反之。最大容许误差Emax。 用于判断学习是否结束。随机赋网络初始权值。 一般选择比较小的随机数。第三十八页,共一百五十三页,编辑于2023年,星期五39/153增量型学习:保证最近样本的逼近精度,速度快。累积型学习:保证所有样本的学习精度,速度慢。(2)学习方式第三十九页,共一百五十三页,编辑于2023年,星期五40/153激励函数如用Sigmoid函数,应增大斜率,减少饱和的情况,来提高训练速度。调节学习因子:学习速率越大,收敛越快,但容易产生振荡;而学习速率越小,收敛越慢。增加Momentum项(3)学习速率第四十页,共一百五十三页,编辑于2023年,星期五41/153目标函数:例3-2:非线性函数逼近第四十一页,共一百五十三页,编辑于2023年,星期五42/153学习设置采用传统的BP学习算法激励函数都为Sigmoid函数。初始权系数阵由(0,1)之间的随机数组成。学习步长η=0.09。学习样本取20点,即:

校验样本取30点,即:第四十二页,共一百五十三页,编辑于2023年,星期五43/153两种MLP模型的学习效果第四十三页,共一百五十三页,编辑于2023年,星期五44/1533.2.1网络结构3.2.2多层传播网络的BP学习算法3.2.3快速的BP改进算法3.2前向神经网络模型第四十四页,共一百五十三页,编辑于2023年,星期五45/153Fahlman在1988年首先提出当问题满足以下条件时:误差表面呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。可采取如下的更新公式1.快速BP算法第四十五页,共一百五十三页,编辑于2023年,星期五46/1532.共轭梯度学习算法共轭梯度学习算法具有坚实的理论基础。特点:使用目标函数的二阶导数信息,可以明显改善优化算法的收敛速度。不计算Hessian矩阵的逆,而是利用共轭梯度来间接地构成Hessian矩阵的逆矩阵值。第四十六页,共一百五十三页,编辑于2023年,星期五47/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第四十七页,共一百五十三页,编辑于2023年,星期五48/153动态神经网络带时滞的多层感知器网络Hopfield网络回归神经网络3.3动态神经网络模型第四十八页,共一百五十三页,编辑于2023年,星期五49/1533.3.1带时滞的多层感知器网络有两种实现:无输出反馈有输出反馈第四十九页,共一百五十三页,编辑于2023年,星期五50/153带时滞的多层感知器网络1图3-20时滞神经网络结构第五十页,共一百五十三页,编辑于2023年,星期五51/153带时滞的多层感知器网络2图3-21带反馈时滞神经网络结构第五十一页,共一百五十三页,编辑于2023年,星期五52/1533.3.2Hopfield神经网络具有相互连接的反馈型神经网络模型将其定义的“能量函数”概念引入到神经网络研究中,给出了网络的稳定性判据。用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。第五十二页,共一百五十三页,编辑于2023年,星期五53/153类型12第五十三页,共一百五十三页,编辑于2023年,星期五54/153全连接单层网络神经元模型1.二值型的Hopfield网络yi取值通常为0和1或-1和1

第五十四页,共一百五十三页,编辑于2023年,星期五55/153例3-4:状态转移关系假设一个3节点的离散Hopfield神经网络,已知网络权值与阈值如图3-23(a)所示。采取随机异步更新策略,计算状态转移关系。V1兴奋:V2和V3状态保持不变。初始状态第五十五页,共一百五十三页,编辑于2023年,星期五56/153状态转移图第五十六页,共一百五十三页,编辑于2023年,星期五57/153能量函数能量井:能量极小状态(与网络的稳定状态一一对应)用途:联想记忆、优化动力学特征:能量井第五十七页,共一百五十三页,编辑于2023年,星期五58/153能量井设计能量井的分布是由连接权值决定的。一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变;二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。第五十八页,共一百五十三页,编辑于2023年,星期五59/153如下图3节点DHNN模型为例,要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在[-1,1]区间取值,确定网络权值和阈值。(1)权值的静态设计方法:例3-6第五十九页,共一百五十三页,编辑于2023年,星期五60/153解对于状态A,y1y2y3=010,当系统处于稳态时,有

W12+θ1<0 θ2>0W23+θ3<0对于状态B,y1y2y3=111,当系统处于稳态时,有

W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>0第六十页,共一百五十三页,编辑于2023年,星期五61/153特解W12=0.5,W13=0.4,W23=0.1,θ1=-0.7,θ2=0.2,θ3=-0.4.对于任何一个初始状态,最终都将达到所期望的稳态A或B。W12=-0.5,W13=0.5,W23=0.4,θ1=0.1,θ2=0.2,θ3=-0.7.出现了假能量井100W12+θ1<0θ2>0W23+θ3<0W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>0第六十一页,共一百五十三页,编辑于2023年,星期五62/153Hebb学习规则(主要方法)δ学习规则(2)基于学习规则的设计方法第六十二页,共一百五十三页,编辑于2023年,星期五63/153原则为:若i与j两个神经元同时处于兴奋状态,则它们之间的连接应加强,即:Hebb学习规则第六十三页,共一百五十三页,编辑于2023年,星期五64/153对于一给定的需记忆的样本向量{t1,t2,...,tN},如果初始权值为0,tk的状态值为+1或-1,则其连接权系数的学习可以利用“外积规则”,即:标量形式:活跃值为1或0时:外积规则第六十四页,共一百五十三页,编辑于2023年,星期五65/1532.网络的稳定性定理3-2:令S=(W,θ)代表神经网络,W为一对称矩阵。则有:如果S工作在串行模式,W的对角元素非负(包括对角元为0的情况),则网络总是收敛于稳定状态。(即在状态空间没有极限环存在);如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。第六十五页,共一百五十三页,编辑于2023年,星期五66/153证明定义能量函数为:

将E(k+1)在Y(k)展开Talyor级数,有:其中,

第六十六页,共一百五十三页,编辑于2023年,星期五67/153证明不失一般性,假设阈值函数f(·)为符号函数sgn(·),则

其中:第六十七页,共一百五十三页,编辑于2023年,星期五68/153证明显然在串行工作方式下,第六十八页,共一百五十三页,编辑于2023年,星期五69/153例3-7:

假设神经元的阈值矢量θ=0,网络输出只取两值{0,1}。要求Hopfield网络记忆如下稳定状态,t1=(1010)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。y1(0)=(1001)T,y2(0)=(1000)T,y3(0)=(0001)T。第六十九页,共一百五十三页,编辑于2023年,星期五70/153步骤1:权值设计根据得第七十页,共一百五十三页,编辑于2023年,星期五71/153步骤2:稳定性分析对于y1(0)有: [1,0,0,1]T→[0,0,0,0]T→[0,0,0,0]T,

因此y1=[0,0,0,0]T,是一个稳定态。对于y2(0)有: [1,0,0,0]T→[0,0,1,0]T→[1,0,0,0]T,

所以初始状态2不属于此Hopfield网络记忆范围。无法实现联想。对于y3(0)有: [0,0,0,1]T→[0,1,0,0]T→[0,0,0,1]T,

也不属于此Hopfield区的记忆范围。第七十一页,共一百五十三页,编辑于2023年,星期五72/1533.应用:联想记忆功能必须具备两个基本条件:能够收敛于稳定状态,利用此稳态来记忆样本信息;具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。第七十二页,共一百五十三页,编辑于2023年,星期五73/153举例:数字识别X=[x1,x2,...,xN]T

、X∈{-1,1}N

,N=10×12=120第七十三页,共一百五十三页,编辑于2023年,星期五74/153存在的问题假能量井现象并非任何一组样本经训练都可构成一组稳定的状态。给定一个偏离样本的初始状态,最终不一定收敛到与其Hamming距离最近的标准样本状态。各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。若样本之间相互正交(dH=N/2)效果最好。反之,若样本特征相近则易出现错误识别。样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究表明,取M=0.15N时,联想的正确率较高。第七十四页,共一百五十三页,编辑于2023年,星期五75/153与二值型的Hopfield网络模型具有相同的拓扑结构神经元的状态oj满足:

N为网络中神经元的个数;oj

为神经元j的状态;

cj

为常数且大于0;

Rj

为正数;

xj

为外部输入;

yi

为神经元i的输出,满足yi=f(oi)。4.连续型的Hopfield网络第七十五页,共一百五十三页,编辑于2023年,星期五76/153引入一个能量函数E:定理3-3:若f-1

为单调递增且连续,

,则沿系统轨道有:且当且仅当时,稳定性第七十六页,共一百五十三页,编辑于2023年,星期五77/153因为且当时,证明第七十七页,共一百五十三页,编辑于2023年,星期五78/153旅行商最优路径问题(TravellingSalesmanProblem,简称TSP)5.优化问题的应用:TSP问题第七十八页,共一百五十三页,编辑于2023年,星期五79/153设计如下能量函数:式中A、B、C、D均为正常数。第一项表示当且仅当每一城市行只包含一个“1”时取极小值0;第二项表示当且仅当每一旅行位置只包含一个“1”时取极小值0;第三项表示当且仅当置换矩阵中“1”之和为n时取极小值0;第四项表示路径长度信息,它随着路径长度的减小而减小。能量函数第七十九页,共一百五十三页,编辑于2023年,星期五80/153f呈硬限幅特性,则有其中化作标准型第八十页,共一百五十三页,编辑于2023年,星期五81/153网络模型第八十一页,共一百五十三页,编辑于2023年,星期五82/153算例A=B=D=500,C=200,RakCak=1,O0=0.02微分方程的初值选为:

Oak=O00+δOak

其中:O00为常数项,满足在t=0时,以利于收敛;

δOak是扰动项,其取值范围为:

-0.1O0≤Oak≤0.1O0

第八十二页,共一百五十三页,编辑于2023年,星期五83/153优化结果第八十三页,共一百五十三页,编辑于2023年,星期五84/1533.3.3回归(Recurrent)神经网络与Hopfield神经网络非常相似。保留了部分前向传播网络的特性又具备部分Hopfield网络的动态联想记忆能力。Pineda在1987年首先将传统的BP学习算法引入到回归神经网络中来,并提出回归反向传播算法。第八十四页,共一百五十三页,编辑于2023年,星期五85/153神经元模型:其中:离散型回归神经网络(DTRNN)N是神经网络的输出节点数,M是输入矢量X的维数第八十五页,共一百五十三页,编辑于2023年,星期五86/153网络结构第八十六页,共一百五十三页,编辑于2023年,星期五87/153展成多层前向网络学习方法1第八十七页,共一百五十三页,编辑于2023年,星期五88/153迭代学习算法 梯度下降法实现学习方法2第八十八页,共一百五十三页,编辑于2023年,星期五89/153权系数矩阵W初始化,置k=1;取下一组训练样本集,

置所有状态为零,所有

迭代:流程第八十九页,共一百五十三页,编辑于2023年,星期五90/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第九十页,共一百五十三页,编辑于2023年,星期五91/1533.6.1引言神经网络控制的优越性神经网络控制器的分类神经网络的逼近能力

对象第九十一页,共一百五十三页,编辑于2023年,星期五92/153神经网络控制的优越性1神经网络可以处理那些难以用模型或规则描述的过程或系统2神经网络采用并行分布式信息处理,具有很强的容错性。3神经网络是本质的非线性系统4很强的信息综合能力5神经网络的硬件实现愈趋方便第九十二页,共一百五十三页,编辑于2023年,星期五93/153神经网络控制器的分类逆控制器自适应网络控制器前馈控制结构自适应评价网络*混合控制系统*神经网络控制器导师指导下的控制器第九十三页,共一百五十三页,编辑于2023年,星期五94/153(1)导师指导下的控制器网络的训练只涉及静态过程,缺乏在线学习机制。第九十四页,共一百五十三页,编辑于2023年,星期五95/153(2)逆控制器网络训练的目的就是为了逼近系统的逆动力学模型。系统的逆动力学模型不可逆时,不能用。第九十五页,共一百五十三页,编辑于2023年,星期五96/153模型参考自适应网络控制器(3)自适应网络控制器第九十六页,共一百五十三页,编辑于2023年,星期五97/153(4)前馈控制结构控制器设计的主要困难是如何找到一种有效的学习方法实现对系统模型未知条件下网络控制的在线学习。第九十七页,共一百五十三页,编辑于2023年,星期五98/1533.6.2神经网络的逼近能力相关结论: 含一个隐层以上的多层前向传播神经网络不仅可以以任意精度逼近连续函数本身,还可以逼近函数的导数项。第九十八页,共一百五十三页,编辑于2023年,星期五99/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第九十九页,共一百五十三页,编辑于2023年,星期五100/1533.7.1辨识基础3.7.2神经网络辨识模型的结构3.7.3非线性动态系统的神经网络辨识3.7非线性动态系统的神经网络辨识第一百页,共一百五十三页,编辑于2023年,星期五101/153L.A.Zadeh曾经下过这样的定义:“辨识是在输入和输出数据的基础上,从一组给定的模型中,确定一个与所测系统等价的模型”。使用非线性系统的输入输出数据来训练神经网络可认为是非线性函数的逼近问题。多层前向传播网络能够逼近任意L2非线性函数。3.7.1辨识基础第一百零一页,共一百五十三页,编辑于2023年,星期五102/153模型的选择输入信号的选择误差准则的选择三大要素第一百零二页,共一百五十三页,编辑于2023年,星期五103/1533.7.1辨识基础3.7.2神经网络辨识模型的结构3.7.3非线性动态系统的神经网络辨识3.7非线性动态系统的神经网络辨识第一百零三页,共一百五十三页,编辑于2023年,星期五104/1533.7.2神经网络辨识模型的结构逆模型法前向建模法第一百零四页,共一百五十三页,编辑于2023年,星期五105/153所谓前向建模法是利用神经网络来逼近非线性系统的前向动力学模型。前向建模法

TDL—TappedDelayLine(按拍延迟线)第一百零五页,共一百五十三页,编辑于2023年,星期五106/153直接法:逆模型法第一百零六页,共一百五十三页,编辑于2023年,星期五107/153存在的问题学习过程不一定是目标最优的。一旦非线性系统对应关系不是一对一的,所建立的逆模型可能不准确。

克服方法存在的问题?第一百零七页,共一百五十三页,编辑于2023年,星期五108/1533.7.1辨识基础3.7.2神经网络辨识模型的结构3.7.3非线性动态系统的神经网络辨识3.7非线性动态系统的神经网络辨识第一百零八页,共一百五十三页,编辑于2023年,星期五109/153并行结构:利用辨识模型的输出,收敛性差。串行结构:利用系统的实际输出,收敛性好。根据可分离性和线性性,有4种结构。辨识的两种结构第一百零九页,共一百五十三页,编辑于2023年,星期五110/153含线性部分的辨识问题(模型1、2)模型1模型2第一百一十页,共一百五十三页,编辑于2023年,星期五111/153线性部分的参数已知模型1:模型2:第一百一十一页,共一百五十三页,编辑于2023年,星期五112/153线性部分的参数未知模型的辨识问题简单地归结为带时滞的多层感知器网络模型的学习和线性系统的参数估计问题。第一百一十二页,共一百五十三页,编辑于2023年,星期五113/153最小二乘法其中初始条件完全未知时,可取线性部分学习方法第一百一十三页,共一百五十三页,编辑于2023年,星期五114/153BP学习非线性部分学习方法第一百一十四页,共一百五十三页,编辑于2023年,星期五115/153例3-8考虑以下模型:

y(k+1)=a·y(k)+b·y(k-1)+g(u)

其中a=0.3,b=0.6,g(u)=u3+0.3u2-0.4u。试辨识该系统第一百一十五页,共一百五十三页,编辑于2023年,星期五116/153线性部分,采用递推最小二乘学习法非线性部分采用前向传播多层神经网络来逼近。 选择神经网络结构为解第一百一十六页,共一百五十三页,编辑于2023年,星期五117/153校验输入信号:辨识效果第一百一十七页,共一百五十三页,编辑于2023年,星期五118/153非线性可分离系统(模型3)第一百一十八页,共一百五十三页,编辑于2023年,星期五119/153BP学习第一百一十九页,共一百五十三页,编辑于2023年,星期五120/153考虑如下非线性离散系统:求:采用双模型法解决该系统的辨识问题。例3-9第一百二十页,共一百五十三页,编辑于2023年,星期五121/153单一模型网络:两模型网络均为:两种方法的学习曲线第一百二十一页,共一百五十三页,编辑于2023年,星期五122/153两模型法的辨识效果第一百二十二页,共一百五十三页,编辑于2023年,星期五123/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第一百二十三页,共一百五十三页,编辑于2023年,星期五124/1533.8神经网络控制的学习机制神经元控制器的目的在于如何设计一个有效的神经元网络去完成代替传统控制器的作用,使得系统的输出跟随系统的期望输出。为了达到这个目的,神经网络的学习方法就是寻找一种有效的途径进行网络连接权阵或网络结构的修改,从而使得网络控制器输出的控制信号能够保证系统输出跟随系统的期望输出。第一百二十四页,共一百五十三页,编辑于2023年,星期五125/153分类3.8.1监督式学习离线学习法在线学习法反馈误差学习法多网络学习法3.8.2增强式学习第一百二十五页,共一百五十三页,编辑于2023年,星期五126/1531.离线学习法适合静态环境第一百二十六页,共一百五十三页,编辑于2023年,星期五127/1532.在线学习法适合模型已知的动态环境第一百二十七页,共一百五十三页,编辑于2023年,星期五128/153采用最速下降法学习方法假设系统的Jacobian矩阵已知性能指标函数:第一百二十八页,共一百五十三页,编辑于2023年,星期五129/1533.反馈误差学习法适用于非线性系统线性绝对占优条件下的网络学习第一百二十九页,共一百五十三页,编辑于2023年,星期五130/1534.多神经网络学习法1前向建模多网络控制第一百三十页,共一百五十三页,编辑于2023年,星期五131/153多神经网络学习法2逆模型建模的多网络控制结构图第一百三十一页,共一百五十三页,编辑于2023年,星期五132/1533.8.2增强式学习利用当前控制是否成功来决定下一次控制该如何走的学习方式。修正的办法是对某一成功的行为进行鼓励,而对不成功的行为进行惩罚。用神经网络来实现时,则可在权值空间进行调整。第一百三十二页,共一百五十三页,编辑于2023年,星期五133/1533.1引言3.2前向神经网络模型3.6神经网络控制基础3.7非线性动态系统的神经网络辨识3.8神经网络控制的学习机制3.9神经网络控制器的设计3.3动态神经网络模型3.10单一神经元控制法目录第一百三十三页,共一百五十三页,编辑于2023年,星期五134/1533.9.1直接逆模型控制法3.9.2直接网络控制法3.9.3多网络自学习控制法3.9神经网络控制器的设计第一百三十四页,共一百五十三页,编辑于2023年,星期五135/1533.9.1直接逆模型控制法训练结构示意图第一百三十五页,共一百五十三页,编辑于2023年,星期五136/153直接逆模型控制的结构示意图运行于静态参数环境第一百三十六页,共一百五十三页,编辑于2023年,星期五137/1533.9.1直接逆模型控制法3.9.2直接网络控制法3.9.3多网络自学习控制法3.9神经网络控制器的设计第一百三十七页,共一百五十三页,编辑于2023年,星期五138/1533.9.2直接网络控制

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论