模式识别第2章课件聚类分析v.ppt_第1页
模式识别第2章课件聚类分析v.ppt_第2页
模式识别第2章课件聚类分析v.ppt_第3页
模式识别第2章课件聚类分析v.ppt_第4页
模式识别第2章课件聚类分析v.ppt_第5页
已阅读5页,还剩44页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第二章 聚类分析,分类与聚类的区别,分类:用已知类别的样本训练集来设计分类器(监督学习) 聚类(集群):用事先不知类别的样本,而利用样本的先验知识来构造分类器(无监督学习),2.1聚类分析的概念,基本思想: 对一批没有标明类别及类数的模式样本集,根据模式间的相似程度,按照物以类聚、人以群分的思想,将相似的模式分为一类,不相似的分为另一类。,特征的类型,1.低层特征: 无序尺度:有明确的数量和数值。 有序尺度:有先后、好坏的次序关系,如酒 分为上,中,下三个等级。 名义尺度:无数量、无次序关系,如有红, 黄两种颜色 2. 中层特征:经过计算,变换得到的特征 3. 高层特征:在中层特征的基础上有目的的经过运 算形成 例如:椅子的重量=体积*比重 体积与长,宽,高有关;比重与材料,纹理,颜色有关。这里低、中、高三层特征都有了。,方法的有效性,特征选取不当 特征过少 特征过多 量纲问题,主要聚类分析技术,谱系法(系统聚类,层次聚类法) 基于目标函数的聚类法(动态聚类) 图论聚类法 模糊聚类分析法,2.2模式相似度度量,各种距离表示相似性: 绝对值距离 已知两个样本 xi=(xi1, xi2 , xi3,xin)T xj=(xj1, xj2 , xj3,xjn)T, 欧几里德距离 明考夫斯基距离 其中当q=1时为绝对值距离,当q=2时为欧氏距离, 切比雪夫距离 q趋向无穷大时明氏距离的极限情况 马哈拉诺比斯距离 其中xi ,xj为特征向量, 为协方差。使用的条件是 样 本符合正态分布, 夹角余弦 为xi xj的均值 即样本间夹角小的为一类,具有相似性 例: x1 , x2 , x3的夹角如图: 因为x1 , x2 的夹角小,所以x1 , x2 最相似。,x2,x3, 相关系数 为xi xj的均值 注意:在求相关系数之前,要将数据标准化,2.3类的定义和与类间距离,用距离进行定义类(书),非监督学习方法分类,1、基于概率密度函数估计的直接方法(不实用) 2、基于样本间相似性度量的间接聚类方法,两类间的距离,1、最短距离:两类中相距最近的两样本间的距离。,2、最长距离 :两类中相距最远的两个样本间的距离。 3、中间距离:最短距离和最长距离都有片面性,因此有时用中间距离。设1类和23类间的最短距离为d12,最长距离为d13, 23类的长度为d23,则中间距离为: 上式推广为一般情况:,4、重心距离:均值间的距离 5、类平均距离:两类中各个元素两两之间的距离平方相加后取平均值,6、 离差平方和: 设N个样品原分q类,则定义第i类的离差平方和为: 离差平方和增量:设样本已分成p,q两类,若把p,q合为r类,则定义离差平方:,聚类准则,类内距离越小越好 类间距离越大越好 一些准则函数,聚类分析三要素,相似性测度 聚类准则 聚类算法,2.4 聚类的算法,(1) 根据相似性阈值和最小距离原则的简单聚类法 (2)按照最小距离原则不断进行两类合并的方法 (3)依据准则函数的动态动态聚类算法,系统聚类的算法,谱系聚类的算法 原理、步骤 例:如下图所示 1、设全部样本分为6类, 2、作距离矩阵D(0),3、求最小元素: 4、把1,3合并7=(1,3) 4,6合并8=(4,6) 5、作距离矩阵D(1),6、若合并的类数没有达到要求,转3。否则停止。 3、求最小元素: 4、8,5,2合并, 9=(2,5,4,6), 分解聚类,分解聚类:把全部样本作为一类,然后根据相似性、相邻性分解。 目标函数 两类均值方差,N:总样本数, :1类样本数 :2类样本数,,分解聚类框图:,对分算法:略 例:已知21个样本,每个样本取二个特征,原始资料矩阵如下表:,解:第一次分类时计算所有样本,分别划到,时的E值,找出最大的。 1、开始时,,2、分别计算当 划入,时的E值,把 划入,时有,然后再把 划入 时对应的E值,找出一个最大的E值。 把 划为 的E值最大。 ,E(1)=56.6,再继续进行第二,第三次迭代 计算出 E(2) , E(3) , ,次数 E值 1 56.6 2 79.16 3 90.90 4 102.61 5 120.11 6 137.15 7 154.10 8 176.15 9 195.26 10 213.07 11 212.01,第10次迭代 划入 时,E最大。于是分成以下两类: ,每次分类后要重新计算 的值。可用以下递推公式:, 动态聚类兼顾系统聚类和分解聚类,一、动态聚类的方法概要 先选定某种距离作为样本间的相似性的度量; 确定评价聚类结果的准则函数; 给出某种初始分类,用迭代法找出使准则函数取极值的最好的聚类结果。,动态聚类框图,二、代表点的选取方法:代表点就是初始分类的聚类中心数k 凭经验选代表点,根据问题的性质、数据分布,从直观上看来较合理的代表点k; 将全部样本随机分成k类,计算每类重心,把这些重心作为每类的代表点;, 按密度大小选代表点: 以每个样本作为球心,以d为半径做球形;落在球内的样本数称为该点的密度,并按密度大小排序。首先选密度最大的作为第一个代表点,即第一个聚类中心。再考虑第二大密度点,若第二大密度点距第一代表点的距离大于d1(人为规定的正数)则把第二大密度点作为第二代表点,否则不能作为代表点,这样按密度大小考察下去,所选代表点间的距离都大于d1。d1太小,代表点太多,d1太大,代表点太小,一般选d12d。对代表点内的密度一般要求大于T。T0为规定的一个正数。 用前k个样本点作为代表点。,三、初始分类和调整 选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心的距离,把所有样本归于最近的聚类中心点,形成初始分类,再重新计算各聚类中心,称为成批处理法。 选一批代表点后,依次计算其它样本的归类,当计算完第一个样本时,把它归于最近的一类,形成新的分类。再计算新的聚类中心,再计算第二个样本到新的聚类中心的距离,对第二个样本归类。即每个样本的归类都改变一次聚类中心。此法称为逐个处理法。 直接用样本进行初始分类,先规定距离d,把第一个样品作为第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类中心距离小于d,就把第二个样本归于第一类,否则第二个样本就成为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大于还是小于d,决定分裂还是合并。,最佳初始分类。 如图所示,随着初始分类k的增大,准则函数下降很快,经过拐点A后,下降速度减慢。拐点A就是最佳初始分类。,四、C平均算法 例:已知有20个样本,每个样本有2个特征,数据分布如下图,第一步:令C=2,选初始聚类中心为,第三步:根据新分成的两类建立新的聚类中心,第四步: 转第二步。 第二步:重新计算 到z1(2) , z2(2) 的距离,把它们归为最近聚类中心,重新分为两类,,第三步,更新聚类中心,第四步, 第二步, 第三步,更新聚类中心,迭代自组织数据分析算法(IS

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论