matlab做聚类分析Word文档格式.docx

上传人:b****6 文档编号:20303558 上传时间:2023-01-21 格式:DOCX 页数:12 大小:28.41KB
下载 相关 举报
matlab做聚类分析Word文档格式.docx_第1页
第1页 / 共12页
matlab做聚类分析Word文档格式.docx_第2页
第2页 / 共12页
matlab做聚类分析Word文档格式.docx_第3页
第3页 / 共12页
matlab做聚类分析Word文档格式.docx_第4页
第4页 / 共12页
matlab做聚类分析Word文档格式.docx_第5页
第5页 / 共12页
点击查看更多>>
下载资源
资源描述

matlab做聚类分析Word文档格式.docx

《matlab做聚类分析Word文档格式.docx》由会员分享,可在线阅读,更多相关《matlab做聚类分析Word文档格式.docx(12页珍藏版)》请在冰豆网上搜索。

matlab做聚类分析Word文档格式.docx

可取值如下:

‘single’:

最短距离法(默认);

‘complete’:

最长距离法;

‘average’:

未加权平均距离法;

‘weighted’:

加权平均法;

‘centroid’:

质心距离法;

‘median’:

加权质心距离法;

‘ward’:

内平方距离法(最小方差算法)

返回:

Z为一个包含聚类树信息的(m-1)×

3的矩阵。

1.4dendrogram函数

[H,T,…]=dendrogram(Z,p,…)

生成只有顶部p个节点的冰柱图(谱系图)。

1.5cophenet函数

c=cophenetic(Z,Y)

利用pdist函数生成的Y和linkage函数生成的Z计算cophenet相关系数。

1.6cluster函数

T=cluster(Z,…)

根据linkage函数的输出Z创建分类。

1.7clusterdata函数

T=clusterdata(X,…)

根据数据创建分类。

T=clusterdata(X,cutoff)与下面的一组命令等价:

Y=pdist(X,’euclid’);

Z=linkage(Y,’single’);

T=cluster(Z,cutoff);

2.Matlab程序

2.1一次聚类法

X=[1197812.593.531908;

…;

5750067.6238.015900];

T=clusterdata(X,0.9)

2.2分步聚类

Step1寻找变量之间的相似性

用pdist函数计算相似矩阵,有多种方法可以计算距离,进行计算之前最好先将数据用zscore函数进行标准化。

X2=zscore(X);

%标准化数据

Y2=pdist(X2);

%计算距离

Step2定义变量之间的连接

Z2=linkage(Y2);

Step3评价聚类信息

C2=cophenet(Z2,Y2);

//0.94698

Step4创建聚类,并作出谱系图

T=cluster(Z2,6);

H=dendrogram(Z2);

分类结果:

{加拿大},{中国,美国,澳大利亚},{日本,印尼},{巴西},{前苏联}

剩余的为一类。

MATLAB的统计工具箱中的多元统计分析中提供了聚类分析的两种方法:

1.层次聚类hierarchicalclustering

2.k-means聚类

这里用最简单的实例说明以下层次聚类原理和应用发法。

层次聚类是基于距离的聚类方法,MATLAB中通过pdist、linkage、dendrogram、cluster等函数

来完成。

层次聚类的过程可以分这么几步:

(1)确定对象(实际上就是数据集中的每个数据点)之间的相似性,实际上就是定义一个表征对象之间差异的距离,例如最简单的平面上点的聚类中,最经常使用的就是欧几里得距离。

这在MATLAB中可以通过Y=pdist(X)实现,例如

>

X=randn(6,2)

X=

 

-0.4326 

1.1892

-1.6656 

-0.0376

0.1253 

0.3273

0.2877 

0.1746

-1.1465 

-0.1867

1.1909 

0.7258

plot(X(:

1),X(:

2),'

bo'

) 

%给个图,将来对照聚类结果把

Y=pdist(X)

Y=

Columns1through14

1.7394 

1.0267 

1.2442 

1.5501 

1.6883 

1.8277 

1.9648 

0.5401 

2.9568 

0.2228 

1.3717 

1.1377 

1.4790 

1.0581

Column15

2.5092

例子中X数据集可以看作包含6个平面数据点,pdist之后的Y是一个行向量,15个元素分别代表X的第1点与2-6点、第2点与3-6点,......这样的距离。

那么对于M个点的数据集X,pdist之后的Y

将是具有M*(M-1)/2个元素的行向量。

Y这样的显示虽然节省了内存空间,但对用户来说不是很易懂,如果需要对这些距离进行特定操作的话,也不太好索引。

MATLAB中可以用squareform把Y转换成方阵形式,方阵中<

i,j>

位置的数值就是X中第i和第j点之间的距离,显然这个方阵应该是

个对角元素为0的对称阵。

squareform(Y)

ans=

1.68831.7394 

2.9568

1.0267 

1.1377

1.2442 

1.5501 

1.6883 

2.9568 

1.0581 

2.5092 

0

这里需要注意的是,pdist可以使用多种参数,指定不同的距离算法。

helppdist吧。

另外,当数据规模很大时,可以想象pdist产生的Y占用内存将是很吓人的,比如X有10k个数据点,那么X占10k*8*2Bytes=160K,这看起来不算啥,但是pdist后的Y会有10k*10k/2*8Bytes=400M。

怕了把,所以,废话说在前面,用MATLAB的层次聚类来处理大规模数据,大概是很不合适的。

(2)确定好了对象间的差异度(距离)后,就可以用Z=linkage(Y)来产生层次聚类树了。

Z=linkage(Y)

Z=

3.0000 

4.0000 

0.2228

2.0000 

5.0000 

0.5401

1.0000 

7.0000 

1.0267

6.0000 

9.0000 

8.0000 

10.0000 

1.3717

对于M个元素的X,前面说了Y是1行M*(M-1)/2的行向量,Z则是(M-1)*3的矩阵。

Z数组的前两列是索引下标列,最后一列是距离列。

例如上例中表示在产生聚类树的计算过程中,第3和第4点先聚成一类,他们之间的距离是0.2228,以此类推。

要注意的是,为了标记每一个节点,需要给新产生的聚类也安排一个标识,MATLAB中会将新产生的聚类依次用M+1,M+2,....依次来标识。

比如第3和第4点聚成的类以后就用7来标识,第2和第5点聚成的类用8来标识,依次类推。

通过linkage函数计算之后,实际上二叉树式的聚类已经完成了。

Z这个数据数组不太好看,可以用dendrogram(Z)来可视化聚类树。

可以看到,产生的聚类树的每一层都是一个倒置的U型(或者说是个n型,~~),纵轴高度代表了当前聚类中两个子节点之间的距离。

横轴上标记出了各个数据点索引下标。

稍微注意以下的是,dendrogram默认最多画30个最底层节点,当然可以设置参数改变这个限制,比如dendrogram(Z,0)就会把所有数据点索引下标都标出来,但对于成千上万的数据集合,这样的结果必然是图形下方非常拥挤。

看你的应用目的了,随你玩~

(3)初步的聚类树画完后,还要做很多后期工作的,包括这样的聚类是不是可靠,是不是代表了实际的对象分化模式,对于具体的应用,应该怎样认识这个完全版的聚类树,产生具有较少分叉的可供决策参考的分类结果呢?

这都是需要考虑的。

MATLAB中提供了cluster,clusterdata,cophenet,inconsistent等相关函数。

cluster用于剪裁完全版的聚类树,产生具有一定cutoff的可用于参考的树。

clusterdata可以认为是pdist,linkage,cluster的综合,当然更简易一点。

cophenet和inconsistent用来计算某些系数,前者用于检验一定算法下产生的二叉聚类树和实际情况的相符程度(就是检测二叉聚类树中各元素间的距离和pdist计算产生的实际的距离之间有多大的相关性),inconsistent则是量化某个层次的聚类上的节点间的差异性(可用于作为cluster的剪裁标准)。

后面这些的理解,大概需要对聚类有一个更深刻更数学的认识,我也不是很清楚,就不多说了。

MATLAB提供了两种方法进行聚类分析:

1、利用clusterdata函数对数据样本进行一次聚类,这个方法简洁方便,其特点是使用范围较窄,不能由用户根据自身需要来设定参数,更改距离计算方法;

2、分步聚类:

(1)用pdist函数计算变量之间的距离,找到数据集合中两辆变量之间的相似性和非相似性;

(2)用linkage函数定义变量之间的连接;

(3)用cophenetic函数评价聚类信息;

(4)用cluster函数进行聚类。

下边详细介绍两种方法:

1、一次聚类

Clusterdata函数可以视为pdist、linkage与cluster的综合,一般比较简单。

【clusterdata函数:

T=clusterdata(X,cutoff) 

等价于Y=pdist(X,’euclid’);

Z=linkage(Y,’single’);

T=cluster(Z,cutoff)】

2、分步聚类

(1)求出变量之间的相似性

用pdist函数计算出相似矩阵,有多种方法可以求距离,若此前数据还未无量纲化,则可用zscore函数对其标准化

【pdist函数:

X是M*N矩阵,为由M个样本组成,每个样本有N个字段的数据集

metirc取值为:

’euclidean’:

欧氏距离(默认)‘seuclidean’:

标准化欧氏距离;

马氏距离…】

pdist生成一个M*(M-1)/2个元素的行向量,分别表示M个样本两两间的距离。

这样可以缩小保存空间,不过,对于读者来说却是不好操作,因此,若想简单直观的表示,可以用squareform函数将其转化为方阵,其中x(i,j)表示第i个样本与第j个样本之的距离,对角线均为0.

(2)用linkage函数来产生聚类树

【linkage函数:

Y为pdist函数返回的M*(M-1)/2个元素的行向量,

method可取值:

’complete’:

‘average’:

’weighted’:

加权平均法

‘centroid’:

质心距离法;

‘ward’:

内平方距离法(最小方差算法)】

返回的Z为一个(M-1)*3的矩阵,其中前两列为索引标识,表示哪两个序号的样本可以聚为同一类,第三列为这两个样本之间的距离。

另外,除了M个样本以外,对于每次新产生的类,依次用M+1、M+2、…来标识。

为了表示Z矩阵,我们可以用更直观的聚类数来展示,方法为:

dendrogram(Z),产生的聚类数是一个n型树,最下边表示样本,然后一级一级往上聚类,最终成为最顶端的一类。

纵轴高度代表距离列。

另外,还可以设置聚类数最下端的样本数,默认为30,可以根据修改dendrogram(Z,n)参数n来实现,1<

n<

M。

dendrogram(Z,0)则表n=M的情况,显示所有叶节点。

(3)用cophenetic函数评价聚类信息

【cophenet函数:

调用格式:

说明:

cophene检验一定算法下产生的二叉聚类树和实际情况的相符程度,就是检测二叉聚类树中各元素间的距离和pdist计算产生的实际的距离之间有多大的相关性,另外也可以用inconsistent表示量化某个层次的聚类上的节点间的差异性。

(4)最后,用cluster进行聚类,返回聚类列

K均值聚类matlab

K均值聚类法分为如下几个步骤:

一、初始化聚类中心

1、根据具体问题,凭经验从样本集中选出C个比较合适的样本作为初始聚类中心。

2、用前C个样本作为初始聚类中心。

3、将全部样本随机地分成C类,计算每类的样本均值,将样本均值作为初始聚类中心。

二、初始聚类

1、按就近原则将样本归入各聚类中心所代表的类中。

2、取一样本,将其归入与其最近的聚类中心的那一类中,重新计算样本均值,更新聚类中心。

然后取下一样本,重复操作,直至所有样本归入相应类中。

三、判断聚类是否合理

采用误差平方和准则函数判断聚类是否合理,不合理则修改分类。

循环进行判断、修改直至达到算法终止条件。

clc

clear

tic

RGB=imread('

test5.jpg'

);

%读入像

img=rgb2gray(RGB);

[m,n]=size(img);

subplot(2,2,1),imshow(img);

title('

图一原图像'

subplot(2,2,2),imhist(img);

图二原图像的灰度直方图'

holdoff;

img=double(img);

fori=1:

200

c1

(1)=25;

c2

(1)=125;

c3

(1)=200;

%选择三个初始聚类中心

r=abs(img-c1(i));

g=abs(img-c2(i));

b=abs(img-c3(i));

%计算各像素灰度与聚类中心的距离

r_g=r-g;

g_b=g-b;

r_b=r-b;

n_r=find(r_g<

=0&

r_b<

=0);

%寻找最小的聚类中心

n_g=find(r_g>

0&

g_b<

%寻找中间的一个聚类中心

n_b=find(g_b>

r_b>

0);

%寻找最大的聚类中心

i=i+1;

c1(i)=sum(img(n_r))/length(n_r);

%将所有低灰度求和取平均,作为下一个低灰度中心

c2(i)=sum(img(n_g))/length(n_g);

%将所有低灰度求和取平均,作为下一个中间灰度中心

c3(i)=sum(img(n_b))/length(n_b);

%将所有低灰度求和取平均,作为下一个高灰度中心

d1(i)=abs(c1(i)-c1(i-1));

d2(i)=abs(c2(i)-c2(i-1));

d3(i)=abs(c3(i)-c3(i-1));

ifd1(i)<

=0.001&

&

d2(i)<

d3(i)<

=0.001

R=c1(i);

G=c2(i);

B=c3(i);

k=i;

break;

end

end

R

G

B

img=uint8(img);

img(find(img<

R))=0;

img(find(img>

R&

img<

G))=128;

G))=255;

toc

subplot(2,2,3),imshow(img);

图三聚类后的图像'

subplot(2,2,4),imhist(img);

图四聚类后的图像直方图'

感觉matlab这个软件好使,能处理各个方面的算法仿真。

开始做MP2音频压缩在DSP上实现这个项目拉,自己要加油!

迎接挑战!

K-Means聚类算法Matlab代码

functiony=kMeansCluster(m,k,isRand)

%%%%%%%%%%%%%%%%

%

%kMeansCluster-Simplekmeansclusteringalgorithm

%Author:

KardiTeknomo,Ph.D.

%Purpose:

classifytheobjectsindatamatrixbasedontheattributes

%Criteria:

minimizeEuclideandistancebetweencentroidsandobjectpoints

%Formoreexplanationofthealgorithm,see

%Output:

matrixdataplusanadditionalcolumnrepresentthegroupofeachobject

%Example:

m=[11;

21;

43;

54]orinaniceform

%m=[11;

%21;

%43;

%54]

%k=2

%kMeansCluster(m,k)producesm=[111;

%211;

%432;

%542]

%Input:

%m-required,matrixdata:

objectsinrowsandattributesincolumns

%k-optional,numberofgroups(default=1)

%isRand-optional,ifusingrandominitializationisRand=1,otherwiseinputanynumber(default)

%itwillassignthefirstkdataasinitialcentroids

%

%LocalVariables

%f-rownumberofdatathatbelongtogroupi

%c-centroidcoordinatesize(1:

k,1:

maxCol)

%g-currentiterationgroupmatrixsize(1:

maxRow)

%i-scalariterator

%maxCol-scalarnumberofrowsinthedatamatrixm=numberofattributes

%maxRow-scalarnumberofcolumnsinthedatamatrixm=numberofobjects

%temp-previousiterationgroupmatrixsize(1:

%z-minimumvalue(notneeded)

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

ifnargin<

3,isRand=0;

2,k=1;

[maxRow,maxCol]=size(m)

ifmaxRow<

=k,

y=[m,1:

maxRow]

else

%initialvalueofcentroid

ifisRand,

p=randperm(size(m,1));

%randominitialization

fori=1:

k

c(i,:

)=m(p(i),:

else

)=m(i,:

)%sequentialinitialization

temp=zeros(maxRow,1);

%initializeaszerovector

while1,

d=DistMatrix(m,c);

%calculateobjcets-centroiddistances

[z,g]=min(d,[],2);

%findgroupmatrixg

ifg==temp,

%stoptheiteration

temp=g;

%copygroupmatrixtotemporaryvariable

f=find(g==i);

iff%onlycomputecentroidiffisnotempty

)=mean(m(find(g==i),:

),1);

en

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 交通运输

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1