智能控制神经控制系统_第1页
智能控制神经控制系统_第2页
智能控制神经控制系统_第3页
智能控制神经控制系统_第4页
智能控制神经控制系统_第5页
已阅读5页,还剩52页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

智能控制神经控制系统第1页/共57页第七章神经控制系统(NeuralControlSystem)

7.1

神经网络(NN)简介7.1.1

人工神经网络(ANN)的起源与发展

自1960年威德罗(Widrow)和霍夫(Hoff)率先把神经网络用于自动控制研究以来,对这一课题的研究艰难地取得一些进展。

60年代末期至80年代中期,神经网络控制与整个神经网络研究一样,处于低潮。

80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。这方面的研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。第2页/共57页7.1.2

用于控制的人工神经网络人工神经网络的特性:

并行分布处理;

非线性映射;

通过训练进行学习;

适应与集成;

硬件实现.(1)模式信息处理和模式识别;

(2)最优化问题计算;

(3)复杂系统控制;

(4)通信。人工神经网络的应用:第3页/共57页7.2

人工神经网络的模型与结构7.2.1

生物神经元模型神经元的主要组成部分:细胞体、轴突、树突、突触等。第4页/共57页从生物控制论的角度,神经元作为控制和信息处理的基本单元,具有以下几个重要功能和特点:1)动态极化原则;2)时空整合功能;3)兴奋与抑制状态;4)脉冲与电位转换;5)突触延时和不应期。第5页/共57页7.2.2

人工神经元模型及其特性

人工神经元由多个输入xi,i=1,2,...,n和一个输出y组成,中间状态由输入信号的权和表示,而输出为: (7.1)式中,j为神经元单元的偏置(阈值),wji为连接权系数(对于

激发状态,

wji取正值,对于抑制状态,

wji取负值),n为输入信

号数目,yj为神经元输出,t为

时间,f(-)为输出变换函数,

有时叫做激发或激励函数,往

往采用取0和1值的二值函数或S形函数,见下图。图7.1神经元模型第6页/共57页这三种函数都是连续和非线性的。一种二值函数可由下式表示: (7.2)一种常规的S形函数可由下式表示: (7.3)双曲正切函数如下式所示: (7.4)图7.2神经元中的某些变换(激发)函数(a)二值函数 (b)S形函数 (c)双曲正切函数第7页/共57页7.2.3

人工神经网络的基本类型1.人工神经网络的基本特性和结构

人工神经网络的结构基本上分为两类,即递归(反馈)网络

和前馈网络。

基本特性ANN分类人工神经网络是一种具有下列特性的有向图:对于每个节点i存在一个状态变量xi;从节点j至节点i,存在一个连接权系统数wij;对于每个节点i,存在一个阈值

i;对于每个节点i,定义一个变换函数:

对于最一般的情况,此函数取形式。第8页/共57页

递归(反馈)网络:在递归网络中,多个神经元互连以组织

一个互连神经网络,如图7.3所示。有些神经元的输出被反馈

至同层或前层神经元。Hopfield网络,Elman网络和Jordan

网络是递归网络有代表性的例子。前馈网络:前馈网络具有递阶分层结构,由一些同层神经元

间不存在互连的层级组成。从输入层至输出层的信号通过单向

连接流通;神经元从一层连接至下一层,不存在同层神经元间

的连接,如图7.4所示。图7.3递归(反馈)网络 图7.4前馈(多层)网络第9页/共57页2.人工神经网络的主要学习算法

有师学习

有师学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。有师学习算法的例子包括Delta规则、广义Delta规则或反向传播算法BP以及LVQ算法等。

无师学习

无师学习算法不需要知道期望输出。在训练过程中,只要向

神经网络提供输入模式,神经网络就能够自动地适应连接权,以

便按相似特征把输入模式分组聚集。

强化学习

强化学习是有师学习的特例。它不需要老师给出目标输出。

强化学习算法采用一个“评论员”来评价与给定输入相对应的神

经网络输出的优度(质量因数)。强化学习算法的一个例子是

遗传算法(GA)。第10页/共57页7.2.4

人工神经网络的典型模型第11页/共57页续前表:第12页/共57页7.3

人工神经网络示例及其算法

人工神经网络的许多算法已在神经控制中获得广泛采用,下面对几种比较重要的ANN网络及其算法加以简要讨论。7.3.1

多层感知器(MLP)

多层感知器是最著名的前馈网络。图7.4给出一个三层MLP,

即输入层、中间(隐含)层和输出层。输入层的神经元只起到缓

冲器的作用,把输入信号分配至隐含层的神经元。隐含层的每个

神经元j(见图7.1)在对输入信号加权wij之后,进行求和,并计

算出输出yj作为该和的f函数,即 (7.5)反向传播算法(BP)是一种最常采用的MLP训练算法,另一种适于训练MLP的学习算法是遗传算法(GA)。第13页/共57页反向传播算法是一种最常采用的MLP训练算法,它给出神经元i和j间连接权的变化,如下式所示:

(7.6)式中,为一称为学习速率的参数,为一取决于神经元j是否为一输出神经元或隐含神经元的系数。对于输出神经元,

(7.7)对于隐含神经元,

(7.8)在上述两式中,表示所有输入信号对神经元j的加权总和,为神经元j的目标输出。第14页/共57页另一种适于训练MLP的学习算法是遗传算法(GA)

该算法以某个随机产生的染色体群体开始,并应用基因算子产生新的更为合适的群体。选择算子从现有群体选择染色体供繁殖用。交叉算子通过在随机位置切开染色体并交换切开后续位置内的成分,从两个现存的染色体产生两个新的染色体。变异算子通过随机地改变现有染色体的基因,产生新的染色体。这些算子一起模拟一个导向随机搜索方法,此方法最终能够求得神经网络的目标输出。第15页/共57页7.3.2

数据群处理方法(GMDH)网络图7.6和图7.7分别表

示一个数据群处理方法

网络及其一个神经元的

细节。每个GMDH神经

元是一N-Adalilne,即

为一含有非线性预处理

器的自适应线性元件。

训练GMDH网络包含

下列过程:从输入层开

始构造网络,调整每个

神经元的权值,增加层

数直至达到映射精度为

止。图7.6一个受训练的GMDH网络图7.7一个GMDH神经元的详图第16页/共57页7.3.3

自适应谐振理论(ART)网络1.ART-1版本图7.8一个ART-1网络

用于处理二值输入,从下图可以看出,一个ART-1网络含有两层,

一个输入层和一个输出层。这两层完全互连,该连接沿着正向(自

底向上)和反馈(自顶向下)两个方向进行。当ART-1网络在工作时,其训练是连续进行的,包括8个步骤。2.ART-2版本能够处理连续值输入。第17页/共57页右图给出一个学习矢量量化网络,

它由三层神经元组成,即输入转换层、

隐含层和输出层。该网络在输入层与

隐含层间为完全连接,而在隐含层与

输出层间为部分连接,每个输出神经

元与隐含神经元的不同组相连接。图7.9学习矢量化网络7.3.4

学习矢量量化(LVQ)网络最简单的LVQ训练步骤如下:(1)

预置参考矢量初始权值。(2)提供给网络一个训练输入模式。(3)计算输入模式与每个参考矢量间的Euclidean距离。(4)更新最接近输入模式的参考矢量(即获胜隐含神经元的参考矢量)的权值。

如果获胜隐含神经元以输入模式一样的类属于连接至输出神经元的缓冲器,那

么参考矢量应更接近输入模式。否则,参考矢量就离开输入模式。(5)转至(2),以某个新的训练输入模式重复本过程,直至全部训练模式被正确地分类或者满足某个终止准则为止。第18页/共57页7.3.5

Kohonen网络Kohonen网络或自组织特征映射网络含有两层,一个输入缓冲层用于接收输入模式,另一为输出层。输出层的神经元一般按正则二维阵列排列,每个输出神经元连接至所有输入神经元。

连接权值形成与已知输出神经元相连的参考矢量的分量。图7.10Kohonen网络第19页/共57页7.3.6

Hopfield网络Hopfield网络是一种典型的递归网络(见图7.3)。下图表

示Hopfield网络的一种方案。这种网络通常只接受二进制输入(0或1)以及双极性输入(+1或-1)。它含有一个单层神经元,每个神经元与所有其它神经元连接,形成递归结构。Hopfield网络的训练只有一步。图7.11一种Hopfield网络第20页/共57页7.3.7

ElmanandJordan网络图7.12Elman网络 图7.13Jordan网络

图7.12和图7.13分别示出Elman网络和Jordan网络。这两种网

络具有与MLP网络相似的多层结构。在这两种网络中,除了普通

的隐含层外,还有一个特别的隐含层,有时称为上下文层或状态

层;该层从普通隐含层(对于Elman网)或输出层(对于Jordan

网)接收反馈信号。第21页/共57页7.3.8

小脑模型连接控制(CMAC)网络CMAC网络可视为一种具有模糊联想记忆特性监督式(有导师)前馈神经网络。图7.14表示CMAC网络的基本模块。图7.14CMAC网络的基本模块CMAC由一系列映射组成:

(7.17)式中,S={输入矢量},M={中间变量},A={联想单元矢量},

u=CMAC的输出

h(S),hg

f

e。第22页/共57页7.4

神经控制的结构方案7.4.1

NN学习控制

图7.16给出一个NN学习控制的结构,包括一个导师(监督程序)和一个可训练的神经网络控制器(NNC)。控制器的输入对应于由人接收(收集)的传感输入信息,而用于训练的输出对应

于人对系统的控制输入。图7.16基于神经网络的监督式控制第23页/共57页实现NN监督式控制的步骤如下:通过传感器和传感信息处理,调用必要的和有用的控制信息。构造神经网络,即选择NN类型、结构参数和学习算法等。训练NN控制器,实现输入和输出间的映射,以便进行正确的

控制。NN监督式控制已被成功应用于倒立摆小车控制系统。第24页/共57页7.4.2

NN直接逆控制

下图给出NN直接逆控制的两种结构方案。在图7.17(a)中,网络NN1和NN2具有相同的逆模型网络结构,而且采用同样的学习算法。图7.17(b)为NN直接逆控制的另一种结构方案,图中采用一个评价函数(EF)。图7.17NN直接逆控制NN直接逆控制采用受控系统的一个逆模型,它与受控系统串接以便使系统在期望响应(网络输入)与受控系统输出间得到一个相同的映射。第25页/共57页7.4.3

NN自适应控制NN自适应控制也分为两类,即自校正控制(STC)和模型参考自适应控制(MRAC)。

STC和MRAC之间的差别在于:STC根据受控系统的正和(或)逆模型辨识结果直接调节控制器的内部参数,以期能够满足系统的给定性能指标;在MRAC中,闭环控制系统的期望性能是由一个稳定的参考模型描述的,而该模型又是由输入-输出对确定的。1.NN自校正控制(STC)NN直接自校正控制

该控制系统由一个常规控制器和一个具有离线辨识能力的识别器组成;后者具有很高的建模精度。NN直接自校正控制的结构基本上与直接逆控制相同。NN间接自校正控制

本控制系统由一个NN控制器和一个能够在线修正的NN识别器组成;下图表示出了NN间接STC的结构。第26页/共57页2.NN模型参考自适应控制图7.18NN间接自校正控制

NN直接模型参考自适应控制:图7.19NN直接模型参考自适应控制

图7.20NN间接模型参考自适应控制

NN间接模型参考自适应控制:第27页/共57页7.4.4

NN内模控制

基于NN的内模控制的结构如下图所示,其中,系统模型(NN2)与实际系统并行设置。反馈信号由系统输出与模型输出间的差得到,然后由NN1(在正向控制通道上一个具有逆模型的NN控制器)进行处理;NN1控制器与系统的逆有关。图7.21NN内模控制第28页/共57页7.4.5

NN预测控制1.NN预测控制的特点具有预测模型、滚动优化和反馈校正等特点。2.NN预测控制的结构

图7.22NN预测控制

下图表示出了NN预测控制的一种结构方案;图中,神经网络预测器NNP为一神经网络模型,NLO为一非线性优化器。NNP预测受控对象在一定范围内的未来响应:第29页/共57页基于神经网络的预测控制算法步骤如下:(1)计算期望的未来输出序列:

(2)借助NN预测模型,产生预测输出:(3)计算预测误差:(4)求性能判据J的最小值,获得最优控制序列

u(t+j),j=0,1,2,...,N;(5)采用u(t)作为第一个控制信号,然后转至第(1)步。如果在时刻(t+j)的预测误差定义为:

那么非线性优化器NLO将选择控制信号u(t)使二次性能判据J为最小:第30页/共57页7.4.6

NN自适应判断控制

NN自适应判断控制是由Barto等提出的,并由Anderson发展的,它应用强化学习的机理。这种控制系统通常由两个网络组成,即自适应判断网络AJN和控制选择网络CSN,如图7.23所示。图7.23NN自适应判断控制AJN的作用:通过不断的奖罚强化学习,使AJN逐渐训练

为一个熟练的教师;经过学习后,根据受控系统的当前状态和外

部强化反馈信号r(t),AJN产生一强化信号,

然后提供内部强化信号,以便能够判断当前控

制作用的效果。CSN的作用:

CSN相当于多层前馈神经网络控

制器,它在内部强化信号的引导下进

行学习。通过学习,CSN根据系统编

码后的状态,选择下一个控制作用。第31页/共57页7.4.7

基于CAMC的控制CMAC是由Albus开发的,是近年来获得应用的几种主要神经

控制器之一。把CMAC用于控制有两种方案。

第一种方案的结构如图7.24所示。在该控制系统中,指令信号、反馈信号均用作CMAC控制器的输入。控制器输出直接送至受控装置(对象)。图7.24基于CMAC的控制(Ⅰ)图7.25基于CAMC的控制(Ⅱ)

第二种方案的结构如图7.25所示。在该方案中,参考输出方块在每个控制周期产生一个期望输出。该期望输出被送至CMAC模块,提供一个信号作为对固定增益常规偏差反馈控制器控制信号的补充。第32页/共57页7.4.8

多层NN控制

多层神经网络控制器基本上是一种前馈控制器。下图所示的是一个普通的多层神经控制系统。该系统存在两个控制作用:前馈控制和常规控制。前馈控制由神经网络实现,前馈部分的训练目标在于使期望输出与实际装置输出间的偏差为最小。现已提出多层NN控制器的三种结构:间接结构、通用结构和专用结构。图7.26多层NN控制的一般结构第33页/共57页1.间接学习结构

图7.27所示的间接多层NN控制结构含有两个同样的神经网络,用于训练。在本结构中,每个网络作为一个逆动态辨识器。训练的目标是要从期望响应d中找到一个合适的装置控制u。图7.27间接学习结构的多层NN控制2.通用学习结构图7.28通用学习结构

图7.28给出多层NN控制的通用学习结构,它使图7.27中的e=d-y为最小。该网络被训练使得装置输入u与网络输出u*间的差别为最小。第34页/共57页3.专用学习结构

图7.29专用学习结构

多层NN控制的专用学习结构如下图所示。当神经网络训练时,期望输出d是该网络的输入。采用误差反向传播(BP)方法,经过训练使期望输出d与装置的实际输出y之间的差e为最小。第35页/共57页7.4.9

分级NN控制

基于神经网络的分级控制模型如下图所示。图中,d为受控装置的期望输出,u为装置的控制输入,y为装置的实际输出,u*

和y*为由神经网络Ⅱ和Ⅰ给出的装置计算输入与输出。该系统可视为由三部分组成。第一部分为一常规外反馈回路。第二部分是与神经网络Ⅰ连接的通道。系统的第三部分是神经网络Ⅱ,它监控期望输出d和装置输入u。图7.30分级神经网络控制器第36页/共57页

可把分级神经网络模型控制系统分为两个子系统,即基于正向动力学辨识器的系统(见图7.31)和基于逆向动力学辨识器的系统(见图7.32),并可以单独应用它们。图7.31基于正向动力学辨识器的控制系统图7.32基于逆向动力学辨识器的控制系统第37页/共57页基于分级神经网络模型的控制系统具有下列特点:

该系统含有两个辨识器,一个用于辨识装置的动力学特性,另一个用于辨识装置的逆动力学特性。存在一个主反馈回路,它对训练神经网络是很重要的。当训练进行时,逆动力学部分变为主控制器。本控制的最后效果与前馈控制的效果相似。第38页/共57页7.5

模糊逻辑、专家系统及神经网络在控制中的集成7.5.1

模糊神经网络原理模糊系统与神经网络的比较:表7.5模糊系统与神经网络的比较

实现模糊神经网络组合的方法基本上分为两种。第一种方法在于寻求模糊推理算法与神经网络示例之间的功能映射,而第二种方法却力图找到一种从模糊推理系统到一类神经网络的结构映射。第39页/共57页1.FNN的概念与结构图7.33神经网络FNN3定义7.1

一个正则模糊神经网络(RFNN)为一具有模糊信号和/或模糊权值的神经网络,即(1)FNN1具有实数输入信号和模糊权值;(2)FNN2具有模糊集输入信号和实数权值;(3)FNN3具有模糊集输入信号和模糊权值。定义7.2混合模糊神经网络(HFNN)是另一类FNN,它组合模糊信号和神经网络权值,应用加和乘等操作获得神经网络输入。第40页/共57页设FNN3具有同图7.33一样的结构。输入神经元1和2的输入分别为模糊信号,于是隐含神经元k的输入为:

而第k个隐含神经元的输出为:若f为一S形函数,则输出神经元的输入为:

最后输出为:第41页/共57页2.FNN的学习算法

模糊反向传播算法基于FNN3的模糊反向传播算法是由Barkley开发的。

基于α分割的反向传播算法

遗传算法

遗传算法能够产生一个最优的参数集合用于基于初始参数的主观选择或随机选择的模糊推理模型。

其它学习算法

模糊混沌(fuzzychaos)以及基于其它模糊神经元的算法将是进一步研究所感兴趣的课题。3.FNN的逼近能力

基于模糊运算和扩展原理的RFNN不可能成为通用近似器,而HFNN因无需以标准模糊运算为基础则能够成为通用近似器。第42页/共57页7.5.2

模糊神经控制方案

这些方案主要分为两个方面,即结构上等价于模糊系统的NN控制以及功能上等价于模糊系统的NN控制。1.混合FNN

本方案中,神经网络与模糊集被独立地用于系统,两者之一作为另一者的预处理器。例如,模糊集用作神经网络的监督器(导师)或判据,以便改善学习的收敛性,如图7.34所示。图7.34混合FNN第43页/共57页2.似神经模糊集(FAM)

在这种方案中,FNN采用由模糊集描述的模糊神经元。在基于知识的系统中,一个条件语句集合,IF-THEN规则集常常用于表示从人类专家那里提取的知识。图7.35给出一种FNN结构。其中FNN把输入参数聚集进模糊子空间,并由加权网络来辨识输入输出关系。图7.35一种神经状模糊集的结构另一种似神经模糊系统FAM(模糊联想记忆系统)是由Kosko提出的。第44页/共57页3.自适应FNN

在FNN的发展过程中,提出了一种由神经网络实现的自适应模糊逻辑控制器。该神经网络可视为从模糊系统到神经网络的一种结构映射。模糊逻辑控制器的决策过程导致一个由三类子网络构成的神经模糊网络,分别用于模式识别、模糊推理和控制综合,如图7.36所示。图7.36FNN的三个子网络另一种自适应FNN是基于自适应网络的模糊推理系统ANFIS。第45页/共57页4.多层FNN

下图给出了一个用于控制与决策的五层模糊神经网络,其中,第1层由输入语言节点组成,第2层为输入项节点,第3层为规则节点,第4层为输出项节点,第5层为输出语言节点。图7.37多层FNN例子第46页/共57页7.6神经控制器的设计实例神经控制系统的设计一般应包括下列内容:

(1)

建立受控对象的数学计算模型或知识表示模型。(4)

进行控制系统仿真试验,并通过试验结果改进设计。(3)

设计神经控制器,包括控制器结构、功能表示与推理。(2)

选择神经网络及其算法,进行初步辨识与训练。

神经模糊自适应控制器的设计1.控制器结构和工作原理第47页/共57页++-+FC

对象FIENNC图7.42神经模糊自适应控制系统结构

它由一个普通的反馈控制器(FC)和一个神经控制器(NNC)组成,二者的输入信号之和作为实际控制量对系统进行控制,即

第48页/共57页式中,是反馈控制器的输出;神经控制器的输出,通常可描述为

反馈控制器FC起着监控作用,在NNC训练初期,FC对系统实施启动控制,并保证闭环系统的稳定性。神经控制器NNC是一个在线学习的自适应控制器,其作用是综合系统的参考输入和跟踪误差,利用模糊推理机FIE的输出信号进行学习,不断逼近被控对象的逆动力学,使FC的输出及其变化趋于零,从而逐步取消FC的作用,实现对系统的高精度跟踪控制。第49页/共57页2.神经控制器及其训练●●●●●●输入层隐含层输出层图7.43NNC模型结构

根据反馈误差学习法,网络权值的学习规则为:

第50页/共57页

为改善神经网络的学习效果,使NCC的输出变化与系统的运动特性相匹配,根据误差和误差变化,将系统的最终目标分解成若干分目标。

分目标学习误差由模糊推理机的一组模糊规则给出

NBNMNS0PSPMPBNBPBPBPBPMPMPS0NMPBPBPMPMPS0NSNSPBPMPMPS0NSNM0PMPMPS0NSNMNMPSPMPS0NSNMNMNBPMPS0NSNMNMNBNBPB0NSNMNMNBNBNB分目标学习误差规则表

第51页/共57页

为实现上述模糊推

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论