智能控制(第三版)chap8-高级神经网络2_第1页
智能控制(第三版)chap8-高级神经网络2_第2页
智能控制(第三版)chap8-高级神经网络2_第3页
智能控制(第三版)chap8-高级神经网络2_第4页
智能控制(第三版)chap8-高级神经网络2_第5页
已阅读5页,还剩20页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、武汉科技大学 信息科学与工程学院1第8章 高级神经网络8.2 Pi-Sigma神经网络神经网络 8.3 小脑模型神经网络小脑模型神经网络武汉科技大学 信息科学与工程学院2武汉科技大学 信息科学与工程学院3 模糊系统与模糊神经网络既有联系又有区别,其联模糊系统与模糊神经网络既有联系又有区别,其联系表现为系表现为模糊神经网络在本质上是模糊系统模糊神经网络在本质上是模糊系统的实现,的实现,其其区别区别表现为模糊神经网络又具有神经网络的特性。表现为模糊神经网络又具有神经网络的特性。 模糊神经网络充分地利用了神经网络和模糊系统各模糊神经网络充分地利用了神经网络和模糊系统各自的优点,因而得到了广泛的应用。

2、自的优点,因而得到了广泛的应用。武汉科技大学 信息科学与工程学院4 在模糊神经网络中,神经网络的在模糊神经网络中,神经网络的输入、输出节点输入、输出节点用用来表示模糊系统的输入、输出信号,来表示模糊系统的输入、输出信号, 神经网络的神经网络的隐含层节点隐含层节点用来表示用来表示隶属函数隶属函数和和模糊规模糊规则则,利用神经网络的并行处理能力使得模糊系统的,利用神经网络的并行处理能力使得模糊系统的推理能力大大提高。推理能力大大提高。 模糊神经网络在本质上是模糊神经网络在本质上是将常规的神经网络赋予模将常规的神经网络赋予模糊输入信号和模糊权值糊输入信号和模糊权值,其学习算法通常是神经网,其学习算法

3、通常是神经网络学习算法或其推广。络学习算法或其推广。 利用利用RBFRBF网络与模糊系统相结合,构成了模糊网络与模糊系统相结合,构成了模糊RBFRBF网网络。络。 武汉科技大学 信息科学与工程学院5武汉科技大学 信息科学与工程学院6 (o)武汉科技大学 信息科学与工程学院7武汉科技大学 信息科学与工程学院8针对两输入单输出函数针对两输入单输出函数的的RBF逼近网络结构逼近网络结构规则层针对规则:规则层针对规则:If x1 and x2 then y输入层输入层隶属度层隶属度层规则层规则层输出层输出层x1x2w武汉科技大学 信息科学与工程学院9 9武汉科技大学 信息科学与工程学院10第二层:隶属

4、函数层,即模糊化层第二层:隶属函数层,即模糊化层 该层的每个节点具有隶属函数的功能,采用高斯该层的每个节点具有隶属函数的功能,采用高斯函数作为隶属函数。对第函数作为隶属函数。对第j个节点的激活函数个节点的激活函数f2:221122( , )exp()( ).*( )jjjjjf i jnetf icf icnetb cij是第是第i个输入变量在第个输入变量在第j个模糊集合高斯函数的均值个模糊集合高斯函数的均值,bj是标准差。是标准差。课本上没有写清楚课本上没有写清楚武汉科技大学 信息科学与工程学院11 3211,Nnijifjfi jNN其中其中Ni为输入层中第为输入层中第i个输入隶属函数的个

5、数,即个输入隶属函数的个数,即模糊模糊化层节点数化层节点数。武汉科技大学 信息科学与工程学院12, 4331( ),Njf lWfw l j fj 武汉科技大学 信息科学与工程学院13武汉科技大学 信息科学与工程学院14图图8-2 模糊模糊RBF神经网络逼近神经网络逼近武汉科技大学 信息科学与工程学院15 取取ym(k) = f4,ym(k)和和y(k)分别表示网络输出和理分别表示网络输出和理想输出。网络的输入想输出。网络的输入x1和和x2分别为分别为u(k)和和y(k),则网络,则网络逼近误差为:逼近误差为: kykykem 221keE 采用梯度下降法来修正可调参数,定义目标函数为:采用梯

6、度下降法来修正可调参数,定义目标函数为:武汉科技大学 信息科学与工程学院16网络的学习算法如下:网络的学习算法如下:输出层的权值通过如下方式来调整输出层的权值通过如下方式来调整: 3fkewyyeeEwEkwmm则输出层的权值学习算法为:则输出层的权值学习算法为: 211kwkwkwkwkw其中其中 为学习速率,为学习速率, 为动量因子。为动量因子。 武汉科技大学 信息科学与工程学院17隶属函数参数通过如下方式调整隶属函数参数通过如下方式调整2222)(2ijijijijjjijijbcxcnetnetEcEc222232()jiijjjjjjjnetxcEEbbnetbb 其中其中 3222

7、33222wfkenetffffykenetykenetEjmjmjj课本课本出错!出错!武汉科技大学 信息科学与工程学院18 211kckckckckcijijijijij 211kbkbkbkbkbjjjjj隶属函数参数学习算法为:隶属函数参数学习算法为:武汉科技大学 信息科学与工程学院198.1.3 仿真实例仿真实例采样时间取采样时间取1ms。 程序见程序见chap8_1.m。 23) 1(1) 1()()(kykykuky使用模糊使用模糊RBF网络逼近对象:网络逼近对象:武汉科技大学 信息科学与工程学院20网络结构网络结构输入信号:0.5sin(6pt)RBF中心向量:-5 -2 0

8、2 5; -5 -2 0 2 5RBF高斯基宽向量:5 5 5 5 5网络结构:2-10-25-1网络权值初始化:随机值-1,+1学习率:0.2动量系数:0.05武汉科技大学 信息科学与工程学院2100.20.40.60.81-2-101234time(s)Approaching武汉科技大学 信息科学与工程学院2200.20.40.60.81-4-3-2-1012time(s)Approaching error武汉科技大学 信息科学与工程学院23%模糊模糊RBF神经网络对函数进行逼近神经网络对函数进行逼近clear all; close all;xite=0.20; %学习率学习率alfa=0

9、.05; %动量系数动量系数 b=5*ones(5,1);c=-5 -2 0 2 5; -5 -2 0 2 5;w=rands(25,1);c_1=c; c_2=c_1; b_1=b; b_2=b_1; w_1=w; w_2=w_1; u_1=0.0; y_1=0.0; ts=0.001;for k=1:1:1000 time(k)=k*ts; u(k)=0.5*sin(6*pi*k*ts); y(k)=u_13+y_1/(1+y_12); x=u(k),y_1; % Layer1:input 代码与模型不一致!武汉科技大学 信息科学与工程学院24 f1=x; for i=1:1:2 % Layer2:fuzzation for j=1:1:5 net2(i,j)=-(f1(i)-c(i,j)2/b(j)2; f2(i,j)=exp(net2(i,j); end end % Layer3:fuzzy inference(25 rules)m1 = f2(1, :); %chenyagm2 = f

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论