人工神经网络分析编程实现.doc_第1页
人工神经网络分析编程实现.doc_第2页
人工神经网络分析编程实现.doc_第3页
人工神经网络分析编程实现.doc_第4页
人工神经网络分析编程实现.doc_第5页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工神经网络分析编程实现一、 神经网络1.BP网络的特点1) 网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。我们无需建立模型,或了解其内部过程,只需输入,获得输出。只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次的学习以内收敛到最低误差附近。而且理论上,一个三层的神经网络,能够以任意精度逼近给定的函数,这是非常诱人的期望;2) 网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;3) 网络具有一定的推广、概括能力。2.bp主要应用1) 回归预测(可以进行拟合,数据处理分析,事物预测,控制等)2) 分类识别(进行类型划分,模式识别等)3.BP注意问题1) BP算法的学习速度很慢,其原因主要有:a 由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂,因此,必然会出现“锯齿形现象”,这使得BP算法低效;b 存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿;c 为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,这种方法将引起算法低效。2) 网络训练失败的可能性较大,其原因有:a 从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;b 网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。3) 网络结构的选择:尚无一种统一而完整的理论指导,一般只能由经验选定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。4、新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。5、采用s型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能打到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。6.网络的泛化能力一个神经网路是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛化能力。网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,而不能反映样本内含的规律。7.过拟合神经网络计算不能一味地追求训练误差最小,这样很容易出现“过拟合”现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人大失所望。避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据。其中变量数据,在网络训练中,起到的作用就是防止过拟合状态。8.学习速率学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性。代码:DEnet.trainFcn = traingda; % 变学习率梯度下降算法net.trainFcn = traingdx; % 变学习率动量梯度下降算法DE代码:DEp = -1 -1 2 2; 0 5 0 5;t = -1 -1 1 1;net = newff(p,t,3,traingda);net.trainParam.lr = 0.05;net.trainParam.lr_inc = 1.05;net = train(net,p,t);y = sim(net,p)DE9.神经网络的权值和阈值权值和阈值是神经元之间的连接,将数据输入计算出一个输出,然后与实际输出比较,误差反传,不断调整权值和阈值。引用:p1=1 1 -1;p2=1 -1 -1;这里用单层神经元感知器,假设初始权值代码:DEw=0.2 0.2 0.3DE同时假设初始阀值代码:DEb=-0.3DE输出 a1 a2代码:DEa1=hardlims(w*p1+b)a2=hardlims(w*p2+b)DE如果不能分开,还须不断调整w,b二、神经网络的优化用BP逼近非线性函数,如何提高训练精度(1) 调整网络结构增加网络的层数可以进一步降低误差,提高精度但会使网络复杂化,从而增加网络的训练时间。精度的提高实际上也可以通过增加隐层神经元的数目来获得,其效果更容易观察和掌握,所以应优先考虑。(2) 初始值选取为了使误差尽可能小 ,需要合理选择初始权重和偏置,如果太大就容易陷入饱和区,导致停顿 。一般应选为均匀分布的小数,介于 (-1,1) 。(3) 学习速率调整学习速率的选取很重要 ,大了可能导致系统不稳定,小了会导致训练周期过长、收敛慢,达不到要求的误差。一般倾向于选取较小的学习速率以保持系统稳定,通过观察误差下降曲线来判断。下降较快说明学习率比较合适,若有较大振荡则说明学习率偏大。同时,由于网络规模大小的不同,学习率选择应当针对其进行调整。采用变学习速率的方案,令学习速率随学习进展而逐步减少,可收到良好的效果。(4) 期望误差期望误差当然希望越小越好,但是也要有合适值。三、神经网络的实现1. BP神经网络matlab实现的基本步骤1) 数据归一化2) 数据分类,主要包括打乱数据顺序,抽取正常训练用数据、变量数据、测试数据3) 建立神经网络,包括设置多少层网络(一般3层以内既可以,每层的节点数(具体节点数,尚无科学的模型和公式方法确定,可采用试凑法,但输出层的节点数应和需要输出的量个数相等),设置隐含层的传输函数等。关于网络具体建立使用方法,在后几节的例子中将会说到。4) 指定训练参数进行训练,这步非常重要,在例子中,将详细进行说明5) 完成训练后,就可以调用训练结果,输入测试数据,进行测试6) 数据进行反归一化7) 误差分析、结果预测或分类,作图等2.数据归一化1)归一化的意义:首先说一下,在工程应用领域中,应用BP网络的好坏最关键的仍然是输入特征选择和训练样本集的准备,若样本集代表性差、矛盾样本多、数据归一化存在问题,那么,使用多复杂的综合算法、多精致的网络结构,建立起来的模型预测效果不会多好。若想取得实际有价值的应用效果,从最基础的数据整理工作做起吧,会少走弯路的。归一化是为了加快训练网络的收敛性,2)归一化具体做法是:(1) 把数变为(0,1)之间的小数主要是为了数据处理方便提出来的,把数据映射到01范围之内处理,更加便捷快速,应该归到数字信号处理范畴之内。(2)把有量纲表达式变为无量纲表达式归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量比如,复数阻抗可以归一化书写:Z = R + jL = R(1 + jL/R) ,复数部分变成了纯数量了,没有量纲。另外,微波之中也就是电路分析、信号系统、电磁波传输等,有很多运算都可以如此处理,既保证了运算的便捷,又能凸现出物理量的本质含义。3)神经网络归一化方法:由于采集的各数据单位不一致,因而须对数据进行-1,1归一化处理,归一化方法主要有如下几种,供大家参考:(1)线性函数转换,表达式如下:代码:DEy=(x-MinValue)/(MaxValue-MinValue)DE说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值(2)对数函数转换,表达式如下:代码:DEy=log10(x)DE说明:以10为底的对数函数转换。(3)反余切函数转换,表达式如下:代码:DEy=atan(x)*2/PIDE4)matlab中归一化的实现:matlab中的归一化处理有五种方法,只会其中一种就可以了.注意:第一组和第二组归一化函数在Matlab7.0以上已遗弃,他们的用法相似,pre*是归一化,post*是反归一化,tram*是使用同样的设置归一化另外一组数据1. 内部函数premnmx、postmnmx、tramnmx,将数据归一化到(-1,1)premnmx的语法格式是代码:DE:Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)DE其中P,T分别为原始输入和输出数据,minp和maxp分别为P中的最小值和最大值。mint和maxt分别为T的最小值和最大值。代码:DEPn=tramnmx(P,minp,maxp)DE其中P和Pn分别为变换前、后的输入数据,maxp和minp分别为premnmx函返回的最大值maxp和最小值minp。2、prestd、poststd、trastd归化数据到(0,1)用法与1差不多。详细可以help prestd。上述两种方法是可以相互转化的,比如,第一种归化后的数据为p,则(1+p)./2的结果就是第二种了3、mapminmax()将数据归一化到(-1,1),是6.5中*mnmx系列的替换函数该函数同时可以执行归一化、反归一化和归一化其他数据的功能.代码:DE% 归一化数据输入为p,输出为tnormInput,ps = mapminmax(p);normTarget,ts = mapminmax(t);% 反归一化trainOutput = mapminmax(reverse,normTrainOutput,ts);trainInsect = mapminmax(reverse,trainSamples.T,ts);validateOutput = mapminmax(reverse,normValidateOutput,ts);validateInsect = mapminmax(reverse,validateSamples.T,ts);testOutput = mapminmax(reverse,normTestOutput,ts);testInsect = mapminmax(reverse,testSamples.T,ts);3、输入训练数据的乱序排法,以及分类把数据重新打乱顺序,进行输入,可以让数据更加具备典型性和更优良的泛化能力把数据进行打乱,并分类为:训练输入数据、变量数据、测试数据的方法代码:DEtrainV,valV,testV,trainInd,valInd,testInd =divideblock(allV,trainRatio,valRatio,testRatio)训练数据,变量数据,测试数据,训练数据矩阵的标号,变量数据标号,测试数据标号 =divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百分比)DE其实dividevec和后面四个分类函数的区别在于,dividevec一般直接在Matlab代码中调用。而后面四个函数是通过设置网络的divideFcn函数来实现,比如,net.divideFcn=divideblock,但不是说不可以在代码中像dividevec直接调用4、每次结果不一样问题因为每次初始化网络时都是随机的,而且训练终止时的误差也不完全相同,结果训练后的权植和阀也不完全相同(大致是一样的),所以每次训练后的结果也略有不同。找到比较好的结果后,用命令save filen_ame net_name保存网络,可使预测的结果不会变化,在需要的调用时用命令load filename载入。四、神经网络的实例应用clcAll_error=;%所有误差存储%-%原始数据%-year=1961:2008;%数据p=data(:,2:3);%输入气温和降水数据t=data(:,1);%输出数据,径流量p=p;t=t;%-%数据归一化处理,归一化数据到-1,1,mapminmax函数调用形式%y,ps =%mapminmax(x,ymin,ymax),x需归化的数据输入,%ymin,ymax为需归化到的范围,不填默认为归化到-1,1%返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用%-normInput1,ps = mapminmax(p);normTarget1,ts = mapminmax(t);normInput=normInput1(:,1:48);normTarget=normTarget1(:,1:48);%yuce=normInput1(:,53:64);%-%数据乱序,及分类处理,将输入的15组数据,0.2即3组,用来作为测试数据,%0.2即3组,用来作为验证数据,另外9组用来正常输入,用来训练%DIVIDEVEC用来重新随机抽取上述三种分类的数据,原来的顺序被打乱%函数调用的语法trainV,valV,testV = dividevec(p,t,valPercent,testPercent)%输入p为输入数据,t为输出数据,valPercent为训练用的变化数据在总输入中的百分比%testPercent为训练用的测试数据在总输入中的百分比%输出trainV,valV,testV分别为按乱序及相应百分比,得到的数据%另外,打乱后的数据,p和t都是对应的,请放心使用%-testPercent = 0.10; % Adjust as desiredvalidatePercent = 0.10; % Adjust as desiredtrainSamples,validateSamples,testSamples = dividevec(normInput,normTarget,validatePercent,testPercent);for j=1:100%-% 设置网络参数%- NodeNum1 =4; % 隐层第一层节点数NodeNum2 =5; % 隐层第二层节点数TypeNum =1; % 输出维数TF1 = tansig;TF2 = logsig; TF3 = purelin;%各层传输函数,TF3为输出层传输函数%如果训练结果不理想,可以尝试更改传输函数,以下这些是各类传输函数%TF1 = tansig;TF2 = logsig;%TF1 = logsig;TF2 = purelin;%TF1 = tansig;TF2 = tansig;%TF1 = logsig;TF2 = logsig;%TF1 = purelin;TF2 = purelin; net=newff(minmax(normInput),NodeNum1,TypeNum,TF1 TF1,trainlm);%网络创建%-% 设置训练参数%- net.trainParam.show=25;net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛 net.trainParam.epochs=10000;%训练次数设置,每训练10000次给出一个结果net.trainParam.goal=0.001; %训练目标设置 net.trainParam.min_grad=1e-20;%net.trainParam.mc=0.9;%-% 指定训练参数% net.trainFcn = traingd; % 梯度下降算法% net.trainFcn = traingdm; % 动量梯度下降算法% net.trainFcn = traingda; % 变学习率梯度下降算法% net.trainFcn = traingdx; % 变学习率动量梯度下降算法% (大型网络的首选算法)% net.trainFcn = trainrp; % RPROP(弹性BP)算法,内存需求最小% 共轭梯度算法% net.trainFcn = traincgf; % Fletcher-Reeves修正算法% net.trainFcn = traincgp; % Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大% net.trainFcn = traincgb; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大% (大型网络的首选算法)%net.trainFcn = trainscg; % Scaled Conjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多% net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快% net.trainFcn = trainoss; % One Step Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大% (中型网络的首选算法)%net.trainFcn = trainlm; % Levenberg-Marquardt算法,内存需求最大,收敛速度最快% net.trainFcn = trainbr; % 贝叶斯正则化算法% 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%net.trainfcn=traingdm;net,tr = train(net,trainSamples.P,trainSamples.T,validateSamples,testSamples);%-% 训练完成后,就可以调用sim()函数,进行仿真了%- normTrainOutput,Pf,Af,E,trainPerf = sim(net,trainSamples.P,trainSamples.T);%正常输入的p数据,BP得到的结果tnormValidateOutput,Pf,Af,E,validatePerf = sim(net,validateSamples.P,validateSamples.T);%用作验证的数据p,BP得到的结果tnormTestOutput,Pf,Af,E,testPerf = sim(net,testSamples.P,testSamples.T);%用作测试的数据p,BP得到的结果t%POutput = sim(net,yuce);%-% 仿真后结果数据反归一化,如果需要预测,只需将预测的数据P填入% 将获得预测结果t%- trainOutput = mapminmax(reverse,normTrainOutput,ts);%正常输入的p数据,BP得到的归一化后的结果ttrainInsect = mapminmax(reverse,trainSamples.T,ts);%正常输入的数据tvalidateOutput = mapminmax(reverse,normValidateOutput,ts);%用作验证的数据p,BP得到的归一化的结果tvalidateInsect = mapminmax(reverse,validateSamples.T,ts);%用作验证的数据ttestOutput = mapminmax(reverse,normTestOutput,ts);%用作测试的数据,BP得到的归一化的结果ttestInsect = mapminmax(reverse,testSamples.T,ts);%用作测试的数据t%Presult=mapminmax(reverse,POutput,ts);%绝对误差计算absTrainError = trainOutput-trainInsect;absTestError = testOutput-testInsect;error_sum=sqrt(absTestError(1).2+absTestError(2).2+absTestError(3).2+absTestError(4).2);All_error=All_error error_sum;eps=5;%其为3组测试数据的标准差,或者每个数据偏差在一定范围内而判别rangerror=3;rangage=0.02;%if (abs(absTestError(1)=rangerror )&(abs(absTestError(2)=rangerror)&(abs(absTestError(3)=rangerror)&(abs

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论