聚类分析算法解析.docx

上传人:b****6 文档编号:3086242 上传时间:2022-11-17 格式:DOCX 页数:17 大小:118.73KB
下载 相关 举报
聚类分析算法解析.docx_第1页
第1页 / 共17页
聚类分析算法解析.docx_第2页
第2页 / 共17页
聚类分析算法解析.docx_第3页
第3页 / 共17页
聚类分析算法解析.docx_第4页
第4页 / 共17页
聚类分析算法解析.docx_第5页
第5页 / 共17页
点击查看更多>>
下载资源
资源描述

聚类分析算法解析.docx

《聚类分析算法解析.docx》由会员分享,可在线阅读,更多相关《聚类分析算法解析.docx(17页珍藏版)》请在冰豆网上搜索。

聚类分析算法解析.docx

聚类分析算法解析

聚类分析算法解析

一、不相似矩阵计算

1.加载数据

data(iris)

str(iris)

>data(iris)

>str(iris)

1data.fizame:

":

150oba..of5variatoles:

$Sepal.Length:

num5,.1电・9屯・=4.655.44,ES4・44・9■■甲

SSepal.Width:

num3<533*23.13.63*93.43.12,93*1

$Petal.Length:

nuio1・41・41・31.51・41,41■理1・5・・・

$Petal.Width.:

num0..20).20.20.20.20.40»30.20.20.1■…

$Species:

Factorw/3levels^setosa^-j-?

verslcolor**,■八11

分类分析是无指导的分类,所以删除数据中的原分类变量。

iris$Species<-NULL

2.不相似矩阵计算

不相似矩阵计算,也就是距离矩阵计算,在R中采用dist()函数,或者cluster包中

的daisy()函数。

dist()函数的基本形式是

dist(x,method="euclidean",diag=FALSE,upper=FALSE,p=2)

其中x是数据框(数据集),而方法可以指定为欧式距离"euclidean",最大距离

"maximum",绝对值距离"manhattan","canberra",二进制距离非对称"binary"和明氏距

离"minkowski"。

默认是计算欧式距离,所有的属性必须是相同的类型。

比如都是连续类型,

或者都是二值类型。

dd<-dist(iris)

str(dd)

>str(dd)

Class'disfatomic[1:

11175]CL539Cl・£l0.6^18D・1^110.616**・

・・—attr(*z*rSizeF,J=lnt150

.attr=logiFALSE

.atvr^Vpper**)=logiFALSE

■+—attr(*,frmethcdr,)=chrfFeuclideanF,

・*一attr(*t*rcalldist(x=iris)

Iris数据共150

距离矩阵可以使用as.matrix()函数转化了矩阵的形式,方便显示。

例样本间距离矩阵为150行列的方阵。

下面显示了1~5号样本间的欧式距离。

dd<-as.matrix(dd)

>str(dd)

-attr(*y^diimnames"]=Listof2

..$:

chr[1:

150]Hl,f”旷”3”"4”:

chr[1:

150]nlrr"2nrr3n"4TF

1.聚类函数

R中自带的聚类函数是hclust(),为谱系聚类法。

基本的函数指令是

"ward",最短距离法"single",最

hclust()可以使用的类间距离计算方法包含离差法

大距离法"complete",平均距离法"average","mcquitty",中位数法"median"和重心法

"centroid"。

下面采用平均距离法聚类。

hc<-hclust(dist(iris),method="ave")

Call:

hclust(d-disc(itis)rmethod=rrave")

Clustermethod:

averageDistance:

euclidean

Numberofobjects:

ISO

2.聚类函数的结果

聚类结果对象包含很多聚类分析的结果,可以使用数据分量的方法列出相应的计算结

果。

merge和height结果值的前6个。

其行编号表示聚

类过程的步骤,X1,X2表示在该步合并的两类,该编号为负代表原始的样本序号,编号为

正代表新合成的类;变量height表示合并时两类类间距离。

比如第1步,合并的是样本102

-102和-143

和143,其样本间距离是0.0,合并后的类则使用该步的步数编号代表,即样本

合并为1类。

再如第6行表示样本11和49合并,该两个样本的类间距离是0.1,合并后的

类称为6类。

head(hc$merge,hc$height)

XI

X2

hc・height

1

-102

-143

0.0

2

—8

-40

0T1

3

-1

-18

0.1

4

"1口

-35

0.1

-129

-133

0*1

-11

一轻

0,1

下面显示的聚类结果对象he包含的merge和height结果值的50~55步的结果。

第50

步结果表明样本43与13类(即第13步的聚类合类结果)合并。

所有的类编号负数j表示

原数据的样本编号,正数i表示聚类过程的第i步形成的新类。

再如54步,表示聚类过程

第7步和第37步形成的类合并为新类,新类成为第54类,其类间距离是0.2641715。

data.frame(hc$merge,hc$height)[50:

55]

>data,ftame(hege,hcSheight)[50i5S,]

XI

X2

he・height

50

-43

13

D.25S1139

51

g

31

0.2586802

52

-71

18

0,2618034

53

-6S

16

□・263B95B

54

7

37

0.2641715

55

-69

-8S

0,2645751

3.绘制聚类图

聚类完成后可以使用plot()绘制出聚类的树图。

plot(hc,hang=-1,labels=iris$Species)

ClusterDendrogram

distfiris)

hclustC."average"]

4.指定分类和类中心聚类

通过观察树形图,可见由于数据例很多,使图形很乱,不容易确定合理的分类,为简化

图形,使用cutree()来确定最初的分类结果,先初步确定各个样本的最初分类的类数后,然后用hclust()再次聚类,重新聚类后,得出最后的分类结果。

memb<-cutree(hc,k=10)#

确定10个分类

table(memb)#各类中的样本数

>>inenii<-cutree(he,k

=ICQ

>#各类中的样本数

>table(rtienib)

menib

1234S67B

910

45曲137224249

13

为了进行重新聚类,需要计算各类的类中心的类中心,这里用各类的均向量来代表各类

的类中心,计算程序如下。

cent<-NULL

for(kin1:

10){

cent<-rbind(cent,colMeans(irisSample[memb==k,,drop=FALSE]))

}

>cent<-NULL

>£or(用in1:

10){

4-cent<-rbind(centycolMeans(iris[metrib==k,,drop=FALSE]))>cent

Sepal・Length

Sepal.Uidth

Petal+Length

Petal.Width

[Id

4.968889

3*386667

1*471111

CL2466667

[2<]

5,550口皿

4,175000

1,400000

D・2250000

[3d

4.500000

2.300000

1+3DOOOO

□・3000000

[4门

6*235135

2.851351

4*740541

1・5945946

[5J

S.631818

2.69545S

4.059091

1,2409091

[6J

5.000000

2.300000

3.275000

1・D250000

[G

541667

3.050000

5*529167

2・12OB333

[9J

7.433333

2,922222

6.266567

1.9888889

[叭]

4.900000

2.500000

4,500000

1・7000000

10J

7.500000

3.733333

6*400000

2・2333333

有了各类的类中心后,再次使用hclust()函数,从10类起重新开始聚类。

hclust()函

数这时需要指定各类的类中心,并采用中心法来聚类。

hc1<-hclust(dist(cent),method="centroid",members=table(memb))plot(hc1)

hc1

ClusterDendrogram

 

4—I

O)

ir>

o

g

 

 

dist^cent)

hclust"centroid1!

再次聚类的树形图就很精简了。

从树形图上看,确定为三类是比较合适的。

4.输出最终分类结果

使用cutree()来确定输出各个样本的最后分类。

memb<-cutree(hc,k=3#确定3个分类table(memb)#各类中的样本数

>mert±i<-cutree(he,k=3)

>需各类中的样本数

>mentoJcutree(he,k=3)再各类中的样亦数

>tabLe(merrib)

imeirib

123

506436

错误率约为14/150=9.33%。

下面将聚类结果和原始的分类比较可见聚类结果是不错的。

>data(iris)

>tolole(iris$Species

menib

123

setosa5000

versicolor0500

vircfinica01436

5.直接数据距离阵聚类

可以直接输入距离矩阵,然后用as.dist()函数转为hclust()可以使用的距离阵对象,然后再用hclust()再进行聚类分析。

x<-read.table(text="

idBAFIMIVORMTO

BA0662877255412996

FI6620295468268400

MI8772950754564138

VO2554687540219869

RM4122685642190669

TO9964001388696690”,header=T)row.names(x)<-x$id

x$id<-NULL

x

BA

FI

HI

VO

RH

TO

BA

0

662

877

255

412

996

FI

£62

295

468

268

400

MI

377

295

0

754

564

13B

VO

255

468

754

0

219

8S9

RM

412

2

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 法律文书 > 调解书

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1