




已阅读5页,还剩12页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
matlab做聚类分析Matlab提供了两种方法进行聚类分析。一种是利用 clusterdata函数对样本数据进行一次聚类,其缺点为可供用户选择的面较窄,不能更改距离的计算方法;另一种是分步聚类:(1)找到数据集合中变量两两之间的相似性和非相似性,用pdist函数计算变量之间的距离;(2)用 linkage函数定义变量之间的连接;(3)用 cophenetic函数评价聚类信息;(4)用cluster函数创建聚类。1Matlab中相关函数介绍1.1 pdist函数调用格式:Y=pdist(X,metric)说明:用 metric指定的方法计算 X 数据矩阵中对象之间的距离。X:一个mn的矩阵,它是由m个对象组成的数据集,每个对象的大小为n。metric取值如下:euclidean:欧氏距离(默认);seuclidean:标准化欧氏距离;mahalanobis:马氏距离;cityblock:布洛克距离;minkowski:明可夫斯基距离;cosine:correlation: hamming:jaccard: chebychev:Chebychev距离。1.2 squareform函数调用格式:Z=squareform(Y,.)说明: 强制将距离矩阵从上三角形式转化为方阵形式,或从方阵形式转化为上三角形式。1.3 linkage函数调用格式:Z=linkage(Y,method)说 明:用method参数指定的算法计算系统聚类树。Y:pdist函数返回的距离向量;method:可取值如下:single:最短距离法(默认); complete:最长距离法;average:未加权平均距离法; weighted: 加权平均法;centroid:质心距离法; median:加权质心距离法;ward:内平方距离法(最小方差算法)返回:Z为一个包含聚类树信息的(m-1)3的矩阵。1.4 dendrogram函数调用格式:H,T,=dendrogram(Z,p,)说明:生成只有顶部p个节点的冰柱图(谱系图)。1.5 cophenet函数调用格式:c=cophenetic(Z,Y)说明:利用pdist函数生成的Y和linkage函数生成的Z计算cophenet相关系数。1.6 cluster 函数调用格式:T=cluster(Z,)说明:根据linkage函数的输出Z 创建分类。1.7 clusterdata函数调用格式:T=clusterdata(X,)说明:根据数据创建分类。T=clusterdata(X,cutoff)与下面的一组命令等价:Y=pdist(X,euclid);Z=linkage(Y,single);T=cluster(Z,cutoff);2. Matlab程序2.1 一次聚类法X=11978 12.5 93.5 31908;57500 67.6 238.0 15900;T=clusterdata(X,0.9)2.2 分步聚类Step1 寻找变量之间的相似性用pdist函数计算相似矩阵,有多种方法可以计算距离,进行计算之前最好先将数据用zscore函数进行标准化。X2=zscore(X); %标准化数据Y2=pdist(X2); %计算距离Step2 定义变量之间的连接Z2=linkage(Y2);Step3 评价聚类信息C2=cophenet(Z2,Y2); /0.94698Step4 创建聚类,并作出谱系图T=cluster(Z2,6);H=dendrogram(Z2);分类结果:加拿大,中国,美国,澳大利亚,日本,印尼,巴西,前苏联剩余的为一类。MATLAB的统计工具箱中的多元统计分析中提供了聚类分析的两种方法:1.层次聚类 hierarchical clustering2.k-means聚类这里用最简单的实例说明以下层次聚类原理和应用发法。层次聚类是基于距离的聚类方法,MATLAB中通过pdist、linkage、dendrogram、cluster等函数来完成。层次聚类的过程可以分这么几步:(1) 确定对象(实际上就是数据集中的每个数据点)之间的相似性,实际上就是定义一个表征对象之间差异的距离,例如最简单的平面上点的聚类中,最经常使用的就是欧几里得距离。这在MATLAB中可以通过Y=pdist(X)实现,例如 X=randn(6,2)X = -0.4326 1.1892 -1.6656 -0.0376 0.1253 0.3273 0.2877 0.1746 -1.1465 -0.1867 1.1909 0.7258 plot(X(:,1),X(:,2),bo) %给个图,将来对照聚类结果把 Y=pdist(X)Y = Columns 1 through 14 1.7394 1.0267 1.2442 1.5501 1.6883 1.8277 1.9648 0.54012.9568 0.2228 1.3717 1.1377 1.4790 1.0581 Column 15 2.5092例子中X数据集可以看作包含6个平面数据点,pdist之后的Y是一个行向量,15个元素分别代表X的第1点与2-6点、第2点与3-6点,.这样的距离。那么对于M个点的数据集X,pdist之后的Y将是具有M*(M-1)/2个元素的行向量。Y这样的显示虽然节省了内存空间,但对用户来说不是很易懂,如果需要对这些距离进行特定操作的话,也不太好索引。MATLAB中可以用squareform把Y转换成方阵形式,方阵中位置的数值就是X中第i和第j点之间的距离,显然这个方阵应该是个对角元素为0的对称阵。 squareform(Y)ans = 0 1.7394 1.0267 1.2442 1.5501 1.68831.7394 0 1.8277 1.9648 0.5401 2.95681.0267 1.8277 0 0.2228 1.3717 1.13771.2442 1.9648 0.2228 0 1.4790 1.05811.5501 0.5401 1.3717 1.4790 0 2.50921.6883 2.9568 1.1377 1.05812.5092 0这里需要注意的是,pdist可以使用多种参数,指定不同的距离算法。help pdist吧。另外,当数据规模很大时,可以想象pdist产生的Y占用内存将是很吓人的,比如X有10k个数据点,那么X占10k*8*2Bytes=160K,这看起来不算啥,但是pdist后的Y会有10k*10k/2*8Bytes=400M。怕了把,所以,废话说在前面,用MATLAB的层次聚类来处理大规模数据,大概是很不合适的。(2) 确定好了对象间的差异度(距离)后,就可以用Z=linkage(Y)来产生层次聚类树了。 Z=linkage(Y)Z = 3.0000 4.0000 0.2228 2.0000 5.0000 0.5401 1.0000 7.0000 1.0267 6.0000 9.0000 1.0581 8.0000 10.0000 1.3717对于M个元素的X,前面说了Y是1行M*(M-1)/2的行向量,Z则是(M-1)*3的矩阵。Z数组的前两列是索引下标列,最后一列是距离列。例如上例中表示在产生聚类树的计算过程中,第3和第4点先聚成一类,他们之间的距离是0.2228,以此类推。要注意的是,为了标记每一个节点,需要给新产生的聚类也安排一个标识,MATLAB中会将新产生的聚类依次用M+1,M+2,.依次来标识。比如第3和第4点聚成的类以后就用7来标识,第2和第5点聚成的类用8来标识,依次类推。通过linkage函数计算之后,实际上二叉树式的聚类已经完成了。Z这个数据数组不太好看,可以用dendrogram(Z)来可视化聚类树。可以看到,产生的聚类树的每一层都是一个倒置的U型(或者说是个n型,),纵轴高度代表了当前聚类中两个子节点之间的距离。横轴上标记出了各个数据点索引下标。稍微注意以下的是,dendrogram默认最多画30个最底层节点,当然可以设置参数改变这个限制,比如dendrogram(Z,0)就会把所有数据点索引下标都标出来,但对于成千上万的数据集合,这样的结果必然是图形下方非常拥挤。看你的应用目的了,随你玩(3)初步的聚类树画完后,还要做很多后期工作的,包括这样的聚类是不是可靠,是不是代表了实际的对象分化模式,对于具体的应用,应该怎样认识这个完全版的聚类树,产生具有较少分叉的可供决策参考的分类结果呢?这都是需要考虑的。MATLAB中提供了cluster, clusterdata, cophenet, inconsistent等相关函数。cluster用于剪裁完全版的聚类树,产生具有一定cutoff的可用于参考的树。clusterdata可以认为是pdist,linkage,cluster的综合,当然更简易一点。cophenet和inconsistent用来计算某些系数,前者用于检验一定算法下产生的二叉聚类树和实际情况的相符程度(就是检测二叉聚类树中各元素间的距离和pdist计算产生的实际的距离之间有多大的相关性),inconsistent则是量化某个层次的聚类上的节点间的差异性(可用于作为cluster的剪裁标准)。后面这些的理解,大概需要对聚类有一个更深刻更数学的认识,我也不是很清楚,就不多说了。MATLAB提供了两种方法进行聚类分析:1、利用clusterdata 函数对数据样本进行一次聚类,这个方法简洁方便,其特点是使用范围较窄,不能由用户根据自身需要来设定参数,更改距离计算方法;2、分步聚类:(1)用pdist函数计算变量之间的距离,找到数据集合中两辆变量之间的相似性和非相似性;(2)用linkage函数定义变量之间的连接;(3)用cophenetic函数评价聚类信息;(4)用cluster函数进行聚类。下边详细介绍两种方法:1、一次聚类Clusterdata函数可以视为pdist、linkage与cluster的综合,一般比较简单。【clusterdata函数:调用格式:T=clusterdata(X,cutoff) 等价于Y=pdist(X,euclid); Z=linkage(Y,single); T=cluster(Z,cutoff) 】2、分步聚类(1)求出变量之间的相似性用pdist函数计算出相似矩阵,有多种方法可以求距离,若此前数据还未无量纲化,则可用zscore函数对其标准化【pdist函数:调用格式:Y=pdist(X,metric)说明:X是M*N矩阵,为由M个样本组成,每个样本有N个字段的数据集 metirc取值为:euclidean:欧氏距离(默认)seuclidean:标准化欧氏距离;mahalanobis:马氏距离 】pdist生成一个M*(M-1)/2个元素的行向量,分别表示M个样本两两间的距离。这样可以缩小保存空间,不过,对于读者来说却是不好操作,因此,若想简单直观的表示,可以用squareform函数将其转化为方阵,其中x(i,j)表示第i个样本与第j个样本之的距离,对角线均为0.(2)用linkage函数来产生聚类树【linkage函数:调用格式:Z=linkage(Y,method)说明:Y为pdist函数返回的M*(M-1)/2个元素的行向量, method可取值:single:最短距离法(默认);complete:最长距离法; average:未加权平均距离法;weighted:加权平均法 centroid: 质心距离法; median:加权质心距离法; ward:内平方距离法(最小方差算法)】返回的Z为一个(M-1)*3的矩阵,其中前两列为索引标识,表示哪两个序号的样本可以聚为同一类,第三列为这两个样本之间的距离。另外,除了M个样本以外,对于每次新产生的类,依次用M+1、M+2、来标识。为了表示Z矩阵,我们可以用更直观的聚类数来展示,方法为:dendrogram(Z), 产生的聚类数是一个n型树,最下边表示样本,然后一级一级往上聚类,最终成为最顶端的一类。纵轴高度代表距离列。 另外,还可以设置聚类数最下端的样本数,默认为30,可以根据修改dendrogram(Z,n)参数n来实现,1nM。dendrogram(Z,0)则表n=M的情况,显示所有叶节点。(3)用cophenetic函数评价聚类信息【cophenet函数: 调用格式:c=cophenetic(Z,Y) 说明:利用pdist函数生成的Y和linkage函数生成的Z计算cophenet相关系数。】cophene检验一定算法下产生的二叉聚类树和实际情况的相符程度,就是检测二叉聚类树中各元素间的距离和pdist计算产生的实际的距离之间有多大的相关性,另外也可以用inconsistent表示量化某个层次的聚类上的节点间的差异性。(4)最后,用cluster进行聚类,返回聚类列K均值聚类 matlabK均值聚类法分为如下几个步骤:一、初始化聚类中心1、根据具体问题,凭经验从样本集中选出C个比较合适的样本作为初始聚类中心。2、用前C个样本作为初始聚类中心。3、将全部样本随机地分成C类,计算每类的样本均值,将样本均值作为初始聚类中心。二、初始聚类1、按就近原则将样本归入各聚类中心所代表的类中。2、取一样本,将其归入与其最近的聚类中心的那一类中,重新计算样本均值,更新聚类中心。然后取下一样本,重复操作,直至所有样本归入相应类中。三、判断聚类是否合理采用误差平方和准则函数判断聚类是否合理,不合理则修改分类。循环进行判断、修改直至达到算法终止条件。clcclearticRGB= imread (test5.jpg); %读入像img=rgb2gray(RGB);m,n=size(img);subplot(2,2,1),imshow(img);title( 图一 原图像)subplot(2,2,2),imhist(img);title( 图二 原图像的灰度直方图)hold off;img=double(img);for i=1:200 c1(1)=25; c2(1)=125; c3(1)=200;%选择三个初始聚类中心 r=abs(img-c1(i); g=abs(img-c2(i); b=abs(img-c3(i);%计算各像素灰度与聚类中心的距离 r_g=r-g; g_b=g-b; r_b=r-b; n_r=find(r_g=0&r_b0&g_b0&r_b0);%寻找最大的聚类中心 i=i+1; c1(i)=sum(img(n_r)/length(n_r);%将所有低灰度求和取平均,作为下一个低灰度中心 c2(i)=sum(img(n_g)/length(n_g);%将所有低灰度求和取平均,作为下一个中间灰度中心 c3(i)=sum(img(n_b)/length(n_b);%将所有低灰度求和取平均,作为下一个高灰度中心 d1(i)=abs(c1(i)-c1(i-1); d2(i)=abs(c2(i)-c2(i-1); d3(i)=abs(c3(i)-c3(i-1); if d1(i)=0.001&d2(i)=0.001&d3(i)=0.001 R=c1(i); G=c2(i); B=c3(i); k=i; break; endendR G Bimg=uint8(img);img(find(imgR&imgG)=255;tocsubplot(2,2,3),imshow(img);title( 图三 聚类后的图像) subplot(2,2,4),imhist(img);title( 图四 聚类后的图像直方图) 感觉matlab这个软件好使,能处理各个方面的算法仿真。开始做MP2音频压缩在DSP上实现这个项目拉,自己要加油!迎接挑战!K-Means聚类算法 Matlab代码function y=kMeansCluster(m,k,isRand)% % kMeansCluster - Simple k means clustering algorithm % Author: Kardi Teknomo, Ph.D. % % Purpose: classify the objects in data matrix based on the attributes % Criteria: minimize Euclidean distance between centroids and object points % For more explanation of the algorithm, see /kardi/tutorial/kMean/index.html % Output: matrix data plus an additional column represent the group of each object % % Example: m = 1 1; 2 1; 4 3; 5 4 or in a nice form % m = 1 1; % 2 1; % 4 3; % 5 4 % k = 2 % kMeansCluster(m,k) produces m = 1 1 1; % 2 1 1; % 4 3 2; % 5 4 2 % Input:% m - required, matrix data: objects in rows and attributes in columns % k - optional, number of groups (default = 1)% isRand - optional, if using random initialization isRand=1, otherwise input any number (default)% it will assign the first k data as initial centroids% Local Variables% f - row number of data that belong to group i% c - centroid coordinate size (1:k, 1:maxCol)% g - current iteration group matrix size (1:maxRow)% i - scalar iterator % maxCol - scalar number of rows in the data matrix m = number of attributes% maxRow - scalar number of columns in the data matrix m = number of objects% temp - previous iteration group matrix size (1:maxRow)% z - minimum value (not needed)%if nargin3, isRand=0; endif nargin2, k=1; end maxRow, maxCol=size(m)if maxRow=k, y=m, 1:maxRowelse % initial value of centroid if isRand, p = randperm(size(m,1); % random initialization for i=1:k c(i,:)=m(p(i),:) end else for i=1:k c(i,:)=m(i,:) % sequential initialization end end temp=zeros(maxRow,1); % initialize as zero vector while 1, d=DistMatrix(m,c); % calculate objcets-centroid distances z,g=min(d,2); % find group matrix g if g=temp, break; % stop the iteration else temp=g; % copy group matrix to temporary variable end for i=1:k f=find(g=i); if f % only compute centroid if f is not empty c(i,:)=mean(m(find(g=i),:),1); end end end y=m,g; endThe Matlab function kMeansCluster above call function DistMatrix as shown in the code below. It works for multi-dimensional Euclidean distance. Learn about other type of distance here.function d=DistMatrix(A,B) % % DISTMATRIX return distance matrix between points in A=x1 y1 . w1 and in B=x
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 林木采伐工工艺技术规程
- 飞机桨叶桨根型修工物料编码识别考核试卷及答案
- 金属打火机制作工员工关系考核试卷及答案
- 锂盐田工安全生产月专项考核试卷及答案
- 金属材涂层机组操作工客户特殊要求传递考核试卷及答案
- 阀门装配调试工工作优先级判断考核试卷及答案
- 2025国家自然科学基金委员会公开选聘流动编制10人考前自测高频考点模拟试题及答案详解(夺冠系列)
- 井筒掘砌工岗位现场作业技术规程
- 热压延工岗位知识更新考核试卷及答案
- 凿岩台车司机岗位职业健康、安全、环保技术规程
- 2025年CCAA服务认证基础考试试题(答案+解析)
- 2025年辅警招聘考试试题库附答案(能力提升)
- 2024年中国创新方法大赛考试题库(含答案)
- 川教版2024-2025学年五年级上册信息技术全册教案
- 清洁间歇性导尿的护理
- 哈工大课件教学课件
- 森林防火智能预警监测系统方案
- 2024~2025学年中考数学重难创新题 二次函数性质综合题含答案
- 《 大学生军事理论教程》全套教学课件
- 1200吨黑水虻养殖项目可行性研究报告写作模板-备案审批
- office办公软件试题
评论
0/150
提交评论