概率神经网络-文档资料_第1页
概率神经网络-文档资料_第2页
概率神经网络-文档资料_第3页
概率神经网络-文档资料_第4页
概率神经网络-文档资料_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、1 概率神经网络概率神经网络Probabilistic neural networkProbabilistic neural network2 2 以指数函数替代神经网络中常用的以指数函数替代神经网络中常用的S形激活函形激活函数,进而构造出能够计算非线性判别边界的概率数,进而构造出能够计算非线性判别边界的概率神经网络(神经网络(PNN),该判定边界接近于贝叶斯最),该判定边界接近于贝叶斯最佳判定面。佳判定面。 1、基于贝叶斯最优分类决策理论(错误率低、风险最小化)、基于贝叶斯最优分类决策理论(错误率低、风险最小化)2、基于概率密度估计方法、基于概率密度估计方法 不同于反向传播算法中的试探法,而

2、是基于统计学中已有不同于反向传播算法中的试探法,而是基于统计学中已有的概率密度函数的非参数估计方法。的概率密度函数的非参数估计方法。3、前向传播算法、前向传播算法 没有反馈没有反馈一、简介一、简介3什么是概率神经网络什么是概率神经网络 (Probabilistic neural networks)?)?贝叶斯决策:贝叶斯决策: 1、最小错误率,即最大后验概率准则、最小错误率,即最大后验概率准则 2、最小风险率(代价、损失)、最小风险率(代价、损失) 以最小错误率贝叶斯决策为例,推导以最小错误率贝叶斯决策为例,推导PNN的理论模型。的理论模型。4贝叶斯决策贝叶斯决策概率密度函数估计概率密度函数估

3、计ijiwxijxwpxwp则若,)|()|()|()()|(iiiwxpwpxwp其中,基于训练样本,高斯核的Parzen估计 :iNkiklliixxNwxp1222)2exp()2(11)|(分类任务:假设有c类,w1, w2, wc5iNkikiiixxNwpxg122)2exp()()(判别函数判别函数省去共有元素,再归一化:ikx是属于第iw类的第k个训练样本 l是样本向量的维数 是平滑参数iNiw是第类的训练样本总数 ijiwxijxgxg则若,)()(判别规则判别规则只需经验给出,或聚类法,可取为在同组中特征向量之间距离平均值的一半。112liix对所有样本进行归一化 ,iNk

4、ikiixxNwp12T)1-exp()(ikikikikxxxxxxxxTT222222|6网络模型网络模型 输入层输入层 样本层样本层 求和层求和层(竞争层)(竞争层)三、概率神经网络模型三、概率神经网络模型右图以三类为例,右图以三类为例,即即C=3;同时,;同时,设特征向量维数设特征向量维数为为3。连接关系7以三类为例以三类为例即即C=3;同时,设特同时,设特征向量维数征向量维数为为3。网络模型网络模型各层功能8输入层输入层求和层求和层样本层样本层竞争层竞争层神经元个数是特征向量维数神经元个数是特征向量维数神经元个数是训练样本的个数神经元个数是训练样本的个数神经元个数是类别个数神经元个数

5、是类别个数神经元个数为神经元个数为1 1在输入层中,网络计算输入向量与所有训练样本向量之间的距离。在输入层中,网络计算输入向量与所有训练样本向量之间的距离。 样本层的激活函数是高斯函数。样本层的激活函数是高斯函数。将样本层的输出按类相加,相当于将样本层的输出按类相加,相当于c c个加法器。个加法器。判决的结果由竞争层输出,输出结果中只有一个判决的结果由竞争层输出,输出结果中只有一个1 1,其余结果都是,其余结果都是0 0,概,概率值最大的那一类输出结果为率值最大的那一类输出结果为1 1。 9 将贝叶斯分类决策理论引入到、推广到神经网络中来。将贝叶斯分类决策理论引入到、推广到神经网络中来。 概率

6、神经网络的网络结构是按照贝叶斯判别函数来设置的,以概率神经网络的网络结构是按照贝叶斯判别函数来设置的,以实现错误率或损失最小化。实现错误率或损失最小化。 概率神经网络针对概率密度函数做了三个假设:概率神经网络针对概率密度函数做了三个假设: 各分类的概率密度函数形态相同。各分类的概率密度函数形态相同。 此共同的概率密度函数为高斯分布。此共同的概率密度函数为高斯分布。 各分类的高斯分布概率密度函数的变异矩阵为对角矩阵,各分类的高斯分布概率密度函数的变异矩阵为对角矩阵,且各对角元素的值相同,值为且各对角元素的值相同,值为 。 因为有了以上三个简单的限制,而使得概率神经网络在应用上因为有了以上三个简单

7、的限制,而使得概率神经网络在应用上减少了贝叶斯分类器建构上的问题,增加了许多的便利性。减少了贝叶斯分类器建构上的问题,增加了许多的便利性。四、优势与不足四、优势与不足10 1、网络学习过程简单,学习速度快、网络学习过程简单,学习速度快 学习一次完成,比BP快5个数量级,比RBF2个数量级。 2、分类更准确,对错误、噪声容忍高、分类更准确,对错误、噪声容忍高 错误率、风险最小化。没有局部极小值问题,当有代表性的训练样本数量增加到足够大时,分类器一定能达到贝叶斯最优。 RBF也不存在局部极小值问题,问题有唯一确定解。 3、容错性好,分类能力强。、容错性好,分类能力强。 判别界面渐进地逼近贝叶斯最优

8、分类面。 PNN与与BP、RBF神经网络的比较神经网络的比较11不足不足1、对训练样本的代表性要求高、对训练样本的代表性要求高2、需要的存储空间更大、需要的存储空间更大12五、基本学习算法五、基本学习算法1、归一化XXXXXXXXXmnmmnnX.212222111211nkmknkknkkTxxxB121221211.11该矩阵的训练样本有m个,每一个样本维数为n归一化系数XBCnmnmnm11111C即为归一化后的学习样本mXXX.21训练样本矩阵13基本学习算法基本学习算法2、将归一化好的m个样本送入到网络输入层中。 3、模式距离的计算 该距离是指样本矩阵与学习矩阵中相应元素之间的距离。

9、MxMxMxMxMxMxMxMxMxmmnmmmmnn112222222111112111CCCCCCCCCmnmmnn21222211121114 假设将由P个n维向量组成的矩阵称为待识别样本矩阵,则经归一化后,需要待识别的输入样本矩阵为:待分类样本矩阵,有p个,每一个样本维数为n 计算欧式距离:就是需要识别的归一化的样本向量di,与每一个归一化后的训练样本(Cj)的欧式距离。 ppnppnndddDddddddddd.21212222111211基本学习算法基本学习算法15nkmkpknkkpknkkpknkmkknkkknkkknkkknkkknkkkcdcdcdcdcdcdcdcdcd

10、E121221211221222121212m112211211EEEEEEEEEpmppmm212222111211归一化的训练样本Ci, i=1,2,m;归一化的待分类样本dj, j=1,2,p;Eij:表示第i个待分类样本(di)与第j个训练样本(Cj)的欧式距离。基本学习算法基本学习算法16 第四步:模式层高斯函数的神经元被激活。学习样本与待识别样本被归一化后,通常取标准差=0.1的高斯型函数。激活后得到初始概率矩阵: eeeeeeeeeEEEEEEEEEPpmppmm222212222222121212211222222222PPPPPPPPPpmppmm212222111211基本

11、学习算法基本学习算法17 第五步:假设样本有m个,那么一共可以分为c类,并且各类样本的数目相同,设为k,则可以在网络的求和层求得各个样本属于各类的初始概率和: mkmlplkklplklplmkmllkkllkllmkmllkkllkllPPPPPPPPPS121112212121121111pcppccSSSSSSSSS212222111211基本学习算法基本学习算法18 第六步:计算概率,即第i个样本属于第j类的概率。clilijijSSprob1基本学习算法基本学习算法19六、应用领域六、应用领域 概率神经网络主要用于分类和模式识别领域,概率神经网络主要用于分类和模式识别领域,其中分类方

12、面应用最为广泛,这种网络已较广泛其中分类方面应用最为广泛,这种网络已较广泛地应用于地应用于非线性滤波、模式分类、联想记忆和概非线性滤波、模式分类、联想记忆和概率密度估计率密度估计当中。它的优势在于用线性学习算法当中。它的优势在于用线性学习算法来完成非线性学习算法所做的工作,同时保证非来完成非线性学习算法所做的工作,同时保证非线性算法的高精度等特性。线性算法的高精度等特性。 20七、一个应用实例七、一个应用实例对彩色车牌图像进行二值化对彩色车牌图像进行二值化 分类任务分析:特征向量是每个像素点的颜色分类任务分析:特征向量是每个像素点的颜色RBG值。值。 类别数有类别数有2类,类, A类表示背景色

13、,为接近蓝色或者背景中类表示背景色,为接近蓝色或者背景中出现的其他颜色。出现的其他颜色。 B类为号码色,接近白色的颜色。类为号码色,接近白色的颜色。 用用PNN对每个像素点进行训练、分类,对每个像素点进行训练、分类, 再用再用0、1这两个这两个数值来表示数值来表示A类、类、B类,重新设置图片中像素的颜色实现了车类,重新设置图片中像素的颜色实现了车牌号图像的二值化。牌号图像的二值化。 第一步,选取背景色和号码色的样本图片,收集它们各第一步,选取背景色和号码色的样本图片,收集它们各自的颜色样本数据;自的颜色样本数据; 第二步,运用收集的颜色数据训练第二步,运用收集的颜色数据训练PNNPNN神经网络

14、;神经网络; 第三步,将需要识别的车牌图片中每个像素的颜色数据第三步,将需要识别的车牌图片中每个像素的颜色数据输入输入PNNPNN神经网络完成分类,然后重置图片颜色数据完成二神经网络完成分类,然后重置图片颜色数据完成二值化。值化。 21的改进与遗传算法的改进与遗传算法PNN神经网络模型中,唯一要调整的参数是神经网络模型中,唯一要调整的参数是 已发现,在实际问题中不难找到良好的已发现,在实际问题中不难找到良好的值,并且,随着值,并且,随着的微小变化,错误分类比率不发生显著变化的微小变化,错误分类比率不发生显著变化。 值太小,对于单独训练值太小,对于单独训练的样本仅仅起到隔离的作用,的样本仅仅起到

15、隔离的作用,在本质上是最近邻域分类器;在本质上是最近邻域分类器; 如果太大,不能够完全如果太大,不能够完全区分细节,对于界限不明显区分细节,对于界限不明显的不同类别,可能是得不到的不同类别,可能是得不到理想的分类效果,这时接近理想的分类效果,这时接近于线性分类器于线性分类器 因此,如何确定合适的因此,如何确定合适的参数是概率神经网络的关键参数是概率神经网络的关键问题。问题。 八、优化改进八、优化改进22遗传算法遗传算法 遗传算法以生物进化原理为基础,在每一代群体中,不遗传算法以生物进化原理为基础,在每一代群体中,不断按照个体适应度大小选择,并进行交叉和变异,产生新的断按照个体适应度大小选择,并

16、进行交叉和变异,产生新的群体,这样种群不断得到进化,同时以全局并行搜索技术来群体,这样种群不断得到进化,同时以全局并行搜索技术来进行搜索优化最优个体,以求得问题近似最优解。此外遗传进行搜索优化最优个体,以求得问题近似最优解。此外遗传算法不受函数连续与可微的限制,而且结果全局最优,因此算法不受函数连续与可微的限制,而且结果全局最优,因此完全可以利用遗传算法对概率神经网络的平滑系数进行优化完全可以利用遗传算法对概率神经网络的平滑系数进行优化,寻找最优的参数。,寻找最优的参数。 一般情况下假设一般情况下假设 ,不能将概率特性完整,不能将概率特性完整地表示出来,降低了地表示出来,降低了PNN识别的精度。利用遗传算法优化概识别的精度。利用遗传算法优化概率神经网络的平滑参数时,对应于每个模式类别的率神经网络的平滑参数时,对应于每个模式类别的 是不同是不同的。的。 .21j23设定平滑因子的取值范围,随机长生初始种群,设定平滑因子的取值范围,随机长生初始种群, M为种群规模,并设当前代数为种群规模,并设当前代数 t=1;(2)根据由染色体获得的平滑因子,构建根据由染色体获得的平滑因子,构建PNN网络,计算分类正确的个网络,计算分类正确的个数及误差,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论