




已阅读5页,还剩31页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1 第八章竞争神经网络 2 概述 竞争神经网络在无教师信息的情况下能够自组织地挖掘输入信息的特征 以便对输入进行聚类处理 此类神经网络经常被用来作为前处理单元 preprocessingunit 以便抽取出输入信息的特征 或将输入信息矢量量化 vectorquantization 之后再进行监督式学习 3 概述 神经网络有两种实现非监督式学习的方式 Hebbian规则 通常不是被用来分析输入信息间的聚类关系或分类关系 而是测量输入信息间的相似性或分析输入信息中的主要成分向量 principlecomponents 竞争学习规则 使用竞争学习的神经网络 只有其中的一个神经元会被激活 该神经元就称为胜者 winner 这种神经网络通常用来做聚类分析 即在无先验知识的情况下 发现或挖掘输入信息本身的结构及聚类关系 4 概述 基于竞争学习的神经网络常被用作样本特征检测器 在样本排序 样本聚类 样本分类 样本检测和样本分布特征可视化等方面有广泛地应用典型的竞争神经网络有 ART AdaptiveResonanceTheory SOFM Self OrganizationFeatureMapping PCA PrincipleComponentsAnalysis SNN SynergeticNeuralNetwork 5 CompetitiveLearning 竞争学习的概念设训练模式集合为 x1 x2 xp 所有这些模式分别属于按某种标准设定的m类模式之一 无先验知识 通过竞争学习 网络实现自组织模式分类 每个输出结点代表某一类模式 具体哪一个结点对应于哪一类模式不是事先指定的 需要竞争而出 每个节点就像一个patterndetector或featuredetector 对输入的解释是通过有无相应节点表示 而不是相应幅度或输入输出变换 象前馈网络或反馈网络 与该结点相连的权向量包含了该类模式的基本信息 竞争学习及其特点 6 竞争学习目的竞争学习过程是对输入矢量的聚类过程 是使得获胜节点获得最大响应的过程 是使获胜节点与输入节点之间的权矢量逐渐逼近输入矢量 当训练结束后 对于某类输入模式P 一定有一个网络输出节点有最大响应 输出值为1 其余输出节点无响应 输出值为0 该最大响应输出节点与输入节点之间的权矢量等于或代表此输入矢量 CompetitiveLearning 7 CompetitiveLearning x1x2x3 xn y1y2y3 ym 竞争层 输入层 每个输入节点与每个输出节点全连接竞争层的每一个节点接受一个输入加权和 竞争网络结构 8 CompetitiveLearning 竞争学习过程 winnertakesall 确定winner competitivephase 按一定的准则计算每个输出节点与输入节点之间的权矢量与输入矢量之间的逼近度 最逼近的为winner 调整权矢量 rewardphase 按一定的准则调整winner的权矢量Insimplecompetitivelearning onlythewinnerisallowedtolearn changeitsweight Inself organizingmaps winnerandotherneuronsintheneighborhoodofthewinnermaylearn 9 competitivelearning 1 p 2 y1 y2 ym x1 x2 xn 当权重归一化时 两个判断式是等效的 确定Winner or 10 competitivelearning 权重调整 11 CompetitiveLearning SimpleCompetitiveLearning 12 Suppose forinstance thatthe2 dimensionalinputvectorXispresentedtothethree neuronKohonennetwork Theinitialweightvectors Wj aregivenby CompetitiveLearning 13 Wefindthewinning best matching neuronjXusingtheminimum distanceEuclideancriterion Neuron3isthewinneranditsweightvectorW3isupdatedaccordingtothecompetitivelearningrule CompetitiveLearning 14 TheupdatedweightvectorW3atiteration p 1 isdeterminedas TheweightvectorW3ofthewiningneuron3becomesclosertotheinputvectorXwitheachiteration CompetitiveLearning 15 CompetitiveLearning Compress encode 输入矢量x映射到一个输出节点 code word Decompress decode 输出节点 code word 映射到对应的权矢量 code bookvector 有损压缩 DataCompression 16 竞争学习网络的局限性 一般竞争网络适用于具有典型聚类特性的大量数据的辨识 但当遇到大量的具有概率分布的输入矢量时 竞争网络就无能为力了 这时可以采用SOFM网络来解决 SOFM网络也采用竞争学习方法 但强调邻域的作用 因此 相应的竞争策略略有不同 即不但获胜者而且其邻域的神经元也调整权重 SOFM模型 17 SOFM模型 自组织特征映射网络 SOFM 借鉴了上述生理机制 将输入矢量的特征以有意义的拓扑结构映射在输出层上 即在输入特征空间相邻的矢量映射后 其输出层响应节点形成在拓扑几何意义上的相邻 当随机样本输入到SOFM网络时 如果样本足够多 那么在权值分布上可近似于输入随机样本的概率密度分布 在输出神经元上也反映了这种分布 即概率大的样本集中在输出空间的某一个区域或各个不同的区域 一般而言 SOFM网络的权矢量收敛到所代表的输入矢量的平均值 它反映了输入数据的统计特性 18 SOFM模型 输入层和输出层 竞争层 输入为 输出可以是任意维 但一般取二维其中分布m个神经元 输入节点i通过权值与输出层的m个节点连接 每个输出节点j对应一组权向量 节点j输出 网络结构 19 SOFM模型 激活函数脑神经元化分成不同的功能区域 这种体现了拓扑几何意义相关的区域的形成与神经元之间的侧向联结 lateralconnections 相关 侧向联结可用一种Mexicanhatfunction来描述 20 SOFM模型 Foragivennode 近邻神经元互相激励 mutuallyexcitatory w 0 远离神经元互相抑制 mutuallyinhibitory w 0 很远距离的神经元 irrelevant w 0 可以用 邻域 neighborhood 作用来实现复杂的侧向反馈 21 SOFM模型 学习 SOFM是竞争网络中的一种 它也是通过自组织方法 用样本数据来调整网络的权值 使得权重成为能反映输入分布特征的矢量 考虑到邻域的作用 权重调整策略要有所变化 仅靠 winnertakesall 的竞争学习方法无法发展出拓扑映射图 22 SOFM模型 为了能使二维输出平面上相邻的输出结点对相近的输入模式类作出特别反应 在训练过程中需定义获胜结点的邻域结点 假设本次获胜结点为Nj 它在t时刻的邻域结点用NEj t 表示 NEj t 包含以结点Nj为中心而距离不超过某一半径的所有结点 随着训练的进行 NEj t 的半径逐渐缩小 最后只包含获胜结点Nj自身 即在训练初始阶段 不但对获胜的结点做权值调整 也对其较大范围内的几何邻接结点做相应的调整 而随着训练过程的继续 与输出结点相连的权向量也越来越接近其代表的模式类 在训练结束后 几何上相近的输出结点所连接的权向量既有联系 类似性 又互相区别 从而保证对于某一类输入模式 获胜结点能做出最大响应 而相邻结点做出较大响应 23 SOFM模型 在竞争学习过程中 通过邻域的作用逐渐地扩大排他性 最终仅一个神经元竞争获胜 24 竞争学习算法 初始化 对各节点的权赋以小的随机数作为初始值归一化权值和输入样本定初始领域 学习速率 迭代总数T t 0 随机选取某样本输入 竞争 在输出节点中计算寻找最佳匹配节点C 即其权向量与的欧氏距离最小 为p维向量 其中 注 当输入向量和权向量均为归一化向量时 神经元输出的内积最大等价与输入向量和权向量的欧氏距离最小 25 竞争学习算法 更新 对获胜神经元c及拓扑领域中的所有节点的权值 或 更新学习速率 更新拓扑邻域 判断迭代次数t是否大于或等于T 若是则结束 否则转向 26 竞争学习算法 算法的几点说明 学习常数和领域大小要在学习的过程中调整 对而言 在迭代的前期 取值约为1 然后逐渐减少 建议用 其中 t为迭代数 N为迭代总数 接近收敛阶段 应取0 01小数 细调 对而言 领域可取方形或六角形 开始时 较大 可包含全部节点 然后逐渐减少 建议用 最后收敛到只含中心本身 归一化处理 对输入向量和权向量归一化 以确保通过欧氏距离最小条件选取的获胜神经元具有最大输出 27 SOFM模型 竞争层神经元 100个 排列成10 10的二维矩阵 二维输入矢量以均匀概率分布在正方形平面 特征映射图 随机初始权向量 经过50次迭代后的权向量分布 28 经过100次迭代后的权向量分布 经过10000次迭代后的权向量分布 SOFM模型 29 SOFM模型 如果输入均匀分布在三角形区域 网络经充分训练后 可得到如右的拓扑映射图 如果把10 10的二维矩阵改变成100 1的一维结构 则得到右图的拓扑映射图 30 SOFM的优缺点优点 excellentforclassificationproblems cangreatlyreducecomputationalcomplexity highsensitivitytofrequentinputs newwaysofassociatingrelateddata noneedofsupervisedlearningrules SOFM模型 31 缺点 systemisablackbox errorratemaybeunacceptablenoguaranteeofnetworkconvergenceforhigherdimensionnetworks manyproblemscan tbeeffectivelyrepresentedbyaSOFM alargetrainingsetmayberequired forlargeclassificationproblems trainingcanbelengthy SOFM模型 32 学习矢量量化LVQ LearningVectorQuantization 33 概述 矢量量化是标量量化概念的扩展 适用于高维数据 把高维数据离散化 邻近区域看作同一量化等级 用其中心值代表 其算法可视为一种逐次聚类的算法 聚类中心是该类的代表 称为码字 如果SOFM算法中不考虑邻域 即邻域只包含节点c本身 则有 34 SOFM与LVQ有共同之处 即都能用少量的聚类中心表示原数据 从而起到数据压缩作用 不同之处在于SOFM的各聚类中心 输出阵列中的神经元 的排列是有结构性的 即相邻中心点对应的输入数据中的某些特征是相似的 而VQ的中心没有这种排序功能 自组织映射可以起到类似聚类的作用 但不能直接用于分类或识别 为此 可增加监督学习 1989年 Ko
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 押题宝典教师招聘之《小学教师招聘》模考模拟试题及参考答案详解(培优b卷)
- 教师招聘之《小学教师招聘》从业资格考试真题附完整答案详解(易错题)
- 教师招聘之《小学教师招聘》能力测试B卷附答案详解(完整版)
- 2025年教师招聘之《幼儿教师招聘》考前冲刺模拟题库附答案详解【考试直接用】
- 报关实习总结心得
- 2025年教师招聘之《小学教师招聘》综合提升练习题附答案详解(考试直接用)
- 2025年教师招聘之《小学教师招聘》练习试题含完整答案详解【名校卷】
- 2025年翻译资格证(NAATI)考试题库(附答案和详细解析)
- 2025年时事政治考试100题及答案
- 合肥市生育保险与职工基本医疗保险合并实施:成效、挑战与优化路径
- 秋形势与政策正确认识中国经济热点问题-教案2025版本
- 药品注册审评员考核试题及答案
- GB/T 7251.10-2025低压成套开关设备和控制设备第10部分:规定成套设备的指南
- 森林防灭火知识培训材料课件
- 成本管控的课件
- 2025年全国中小学校党组织书记网络培训示范班在线考试题库及答案
- CT检查的课件教学课件
- 2025年学校意识形态工作要点
- 领导科学概论课件
- 煤矿安全规程(防治水)课件
- 疥疮防与治课件
评论
0/150
提交评论