基于数学原理神经网络不讲_第1页
基于数学原理神经网络不讲_第2页
基于数学原理神经网络不讲_第3页
基于数学原理神经网络不讲_第4页
基于数学原理神经网络不讲_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于数学原理神经网络不讲第1页/共31页28.1径向基函数RBF8.1.1基于径向基函数技术的函数逼近与内插对于RBF网络工作原理的理解可基于2种不同的角度:①当用RBF网络解决非线性映射问题时,用函数逼近与内插的观点来理解;②当用RBF网络解决复杂的模式分类任务时,用模式可分性观点来理解。

第2页/共31页31963年Davis提出高维空间的多变量插值理论。径向基函数是20世纪80年代后期Powell解决多变量有限点插值问题时引入的。设N维空间有P个数据点Xp

,p=1,2,…,P

,在输出空间相应的目标值为dp,p=1,2,…,P。插值问题是寻找一个非线性映射函数F(X),使其满足下述插值条件F(Xp)=dp,p=1,2,…,P

(8.1)式中,函数F描述了一个插值曲面。严格插值或精确插值:是一种完全内插,即该插值曲面必须通过所有数据点。第3页/共31页4

选择P个基函数,每一个基函数对应一个训练数据,各基函数的形式为

,p=1,2,…,P(8.2)

基于径向基函数技术的插值函数定义为基函数的线性组合(8.3)

第4页/共31页5(8.4)

第5页/共31页6

令,i=1,2,…,P,p=1,2,…,P,则上述方程组可改写为Pppdw=å=11j1pMPppdw=å=21j2pPppdw=å=P1jPp(8.5)第6页/共31页7

令Φ表示元素为φip的P×P阶矩阵,W和d分别表示系数向量和期望输出向量,式(8.5)还可写成下面的向量形式

(8.6)

式中Φ称为插值矩阵。若Φ为可逆矩阵,就可以从式(8.6)中解出系数向量W,即

(8.7)

第7页/共31页83种常见的径向基函数

第8页/共31页9第9页/共31页10(1)由于插值曲面必须通过所有训练数据点,当训练数据中存在噪声时,神经网络将拟合出一个错误的插值曲面,从而使其泛化能力下降。

(2)由于径向基函数的数量与训练样本数量相等,当训练样本数远远大于物理过程中固有的自由度时,插值矩阵求逆时可能导致不稳定。

第10页/共31页118.1.2正则化RBF网络

能够实现完全内插的输入-输出映射函数有很多,若输入-输出映射函数是光滑的,则问题的解是连续的,意味着相似的输入对应着相似的输出。

正则化理论表明,当映射函数F(X)的基函数为Green函数时,可保证函数的光滑性。

Green函数的一个重要例子是多元Gauss函数,定义为

1、正则化RBF网络的结构与特点第11页/共31页12正则化RBF网络

第12页/共31页13

当采用正则化RBP网络结构时,隐节点数即样本数,基函数的数据中心即为样本本身,参数设计只需考虑扩展常数和输出节点的权值。

2、RBF网络常用学习算法

(1).径向基函数的扩展常数第13页/共31页14

(2).输出层的权值∴只要得到插值矩阵Φ,即可由上式解出W。∵将所有样本输入一遍,即可得到矩阵Φ

。第14页/共31页158.1.3模式可分性观点与广义RBF网络

若N维输入样本空间的样本模式是线性可分的,总存在一个用线性方程描述的超平面,使两类线性可分样本截然分开。若两类样本是非线性可分的,则不存在一个这样的分类超平面。但根据Cover定理,非线性可分问题可能通过非线性变换获得解决。1、模式的可分性第15页/共31页16Cover定理:将复杂的模式分类问题非线性地投射到高维空间将比投射到低维空间更可能是线性可分的。

第16页/共31页17

设有一组函数构成的向量,将N维空间的P个点映射到M维φ空间(M>N),如果在该M维φ空间存在M维向量W,使得则由线性方程WTφ(X)=0确定了M维φ空间中的一个分界超平面。第17页/共31页182、广义RBF网络

由于正则化网络的训练样本与“基函数”是一一对应的。当样本数P很大时,实现网络的计算量将大得惊人。为解决这一问题,可减少隐节点的个数,即N<M<PN为样本维数,P为样本个数,从而得到广义RBF网络。

第18页/共31页19

广义RBF网络的基本思想是:用径向基函数作为非线性变换函数,构成隐层空间。隐层对输入向量进行变换,将低维输入空间的模式变换到高维隐层空间内,使得在低维空间中线性不可分问题在高维空间中变得线性可分。

第19页/共31页20广义RBF网络

第20页/共31页21广义RBF网络与正则化RBF网络有以下几点不同:⑴径向基函数的数目M与样本数P不相等,且M<P。⑵径向基函数的中心不再限于数据点,由训练算法确定。⑶各径向基函数的扩展常数不再统一,其值由训练算法确定。⑷输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之平均值之间的差别。

第21页/共31页223、广义RBF网络设计方法

根据数据中心的取值方法,RBF网的设计方法可分为两类。

第一类方法:数据中心从样本输人中选取。一般来说,样本密集的地方中心点可以适当多些,样本稀疏的地方中心点可以少些;若数据本身是均匀分布的,中心点也可以均匀分布,总之,选出的数据中心应具有代表性。

第二类方法:数据中心的自组织选择。常采用各种动态聚类算法对数据中心进行自组织选择,梯度训练方法、资源分配网络(RAN)法,等等。

第22页/共31页23K-means聚类算法确定数据中心

⑴初始化。选择M个互不相同的向量作为初始聚类中心:。⑵计算输入空间各样本点与聚类中心点的欧式距离4、广义RBF网络数据中心的聚类算法第23页/共31页24⑶相似匹配。令代表竞争获胜隐节点的下标,对每一个输入样本根据其与聚类中心的最小欧式距离确定其归类,即当

时,被归为第类,从而将全部样本划分为M个子集:,每个子集构成一个以聚类中心为典型代表的聚类域。第24页/共31页25⑷更新各类的聚类中心。对各聚类域中的样本取均值,令Uj(k)表示第j个聚类域,

Nj为第j个聚类域中的样本数,则⑸将k值加1,转到第⑵步。重复上述过程直到的改变量小于要求的值。

第25页/共31页26

各聚类中心确定后,可根据各中心之间的距离确定对应径向基函数的扩展常数。令

则扩展常数取

λ为重叠系数。

第26页/共31页27

利用聚类算法得到各径向基函数的中心和扩展常数后,混合学习过程的第二步是用有监督学习算法得到输出层的权值。最小均方算法(LMS)伪逆法直接计算梯度下降算法

第27页/共31页28隐层输出矩阵为

RBF网络的待定输出

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论