KMEANS算法K均值算法Word文档下载推荐.docx

上传人:b****6 文档编号:18075131 上传时间:2022-12-13 格式:DOCX 页数:11 大小:763.27KB
下载 相关 举报
KMEANS算法K均值算法Word文档下载推荐.docx_第1页
第1页 / 共11页
KMEANS算法K均值算法Word文档下载推荐.docx_第2页
第2页 / 共11页
KMEANS算法K均值算法Word文档下载推荐.docx_第3页
第3页 / 共11页
KMEANS算法K均值算法Word文档下载推荐.docx_第4页
第4页 / 共11页
KMEANS算法K均值算法Word文档下载推荐.docx_第5页
第5页 / 共11页
点击查看更多>>
下载资源
资源描述

KMEANS算法K均值算法Word文档下载推荐.docx

《KMEANS算法K均值算法Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《KMEANS算法K均值算法Word文档下载推荐.docx(11页珍藏版)》请在冰豆网上搜索。

KMEANS算法K均值算法Word文档下载推荐.docx

1)将所有对象随机分配到k个非空的簇中。

2)计算每个簇的平均值,并用该平均值代表相应的簇。

3)根据每个对象与各个簇中心的距离,分配给最近的簇。

4)然后转2〕,重新计算每个簇的平均值。

这个过程不断重复直到满足某个准如此函数才停止。

三.算法描述

1.为中心向量c1,c2,…,ck初始化k个种子

2.分组:

a)将样本分配给距离其最近的中心向量

b)由样本构造不相交〔non-overlapping〕的聚类

3.确定中心:

a)用各个聚类的中心向量作为新的中心

4.重复分组和确定中心的步骤,直至算法收敛

四.算法流程

输入:

簇的数目k和包含n个对象的数据库。

输出:

k个簇,使平方误差准如此最小。

算法步骤:

1.为每个聚类确定一个初始聚类中心,这样就有K个初始聚类中心。

2.将样本集中的样本按照最小距离原如此分配到最邻近聚类

3.使用每个聚类中的样本均值作为新的聚类中心。

5.完毕,得到K个聚类

O

X

Y

1

2

3

1.5

4

5

五.算法举例

数据对象集合S见表1,作为一个聚类分析的二维样本,要求的簇的数量k=2。

 

(1)选择,为初始的簇中心,即,

(2)对剩余的每个对象,根据其与各个簇中心的距离,将它赋给最近的簇。

对:

显然,故将分配给

对于:

因为,所以将分配给

更新,得到新簇和

计算平方误差准如此,单个方差为

总体平均方差是:

〔3〕计算新的簇的中心。

重复〔2〕和〔3〕,得到O1分配给C1;

O2分配给C2,O3分配给C2,O4分配给C2,O5分配给C1。

更新,得到新簇和。

中心为,。

单个方差分别为

总体平均误差是:

由上可以看出,第一次迭代后,总体平均误差值52.25~25.65,显著减小。

由于在两次迭代中,簇中心不变,所以停止迭代过程,算法停止。

六.k-means算法的性能分析

6.1k-means算法的优缺点

主要优点:

1.是解决聚类问题的一种经典算法,简单、快速。

2.对处理大数据集,该算法是相对可伸缩和高效率的。

因为它的复杂度是0(nkt),其中,n是所有对象的数目,k是簇的数目,t是迭代的次数。

通常k<

<

n且t<

n。

3.当结果簇是密集的,而簇与簇之间区别明显时,它的效果较好。

主要缺点

1.在簇的平均值被定义的情况下才能使用,这对于处理符号属性的数据不适用。

2.必须事先给出k〔要生成的簇的数目〕,而且对初值敏感,对于不同的初始值,可能会导致不同结果。

3.它对于“躁声〞和孤立点数据是敏感的,少量的该类数据能够对平均值产生极大的影响。

针对K-Means算法对于不同的初始值,可能会导致不同结果。

解决方法:

1.多设置一些不同的初值,比照最后的运算结果〕一直到结果趋于稳定完毕,比拟耗时和浪费资源

2.很多时候,事先并不知道给定的数据集应该分成多少个类别才最适宜。

这也是K-means算法的一个不足。

有的算法是通过类的自动合并和分裂,得到较为合理的类型数目K,例如ISODATA算法。

3.所谓的gapstatistics〔Gap统计模型〕

6.2ISODATA算法

1.K-均值算法通常适合于分类数目的聚类,而ISODATA算法如此更加灵活;

2.从算法角度看,ISODATA算法与K-均值算法相似,聚类中心都是通过样本均值的迭代运算来决定的;

3.ISODATA算法参加了一些试探步骤,并且可以结合成人机交互的结构,使其能利用中间结果所取得的经验更好地进展分类。

主要是在选代过程中可将一类一分为二,亦可能二类合二为一,即“自组织〞,这种算法具有启发式的特点。

1.考虑了类别的合并与分裂,因而有了自我调整类别数的能力。

合并主要发生在某一类内样本个数太少的情况,或两类聚类中心之间距离太小的情况。

为此设有最小类内样本数限制

,以与类间中心距离参数

假如出现两类聚类中心距离小于

的情况,可考虑将此两类合并。

分裂如此主要发生在某一类别的某分量出现类内方差过大的现象,因而宜分裂成两个类别,以维持合理的类内方差。

给出一个对类内分量方差的限制参数

,用以决定是否需要将某一类分裂成两类。

2.由于算法有自我调整的能力,因而需要设置假如干个控制用参数,如聚类数期望值K、每次迭代允许合并的最大聚类对数L、与允许迭代次数I等。

✓选择某些初始值。

可选不同的参数指标,也可在迭代过程中人为修改,以将N个模式样本按指标分配到各个聚类中心中去。

✓计算各类中诸样本的距离指标函数。

✓〔3〕~〔5〕按给定的要求,将前一次获得的聚类集进展分裂和合并处理〔〔4〕为分裂处理,〔5〕为合并处理〕,从而获得新的聚类中心。

✓重新进展迭代运算,计算各项指标,判断聚类结果是否符合要求。

经过屡次迭代后,假如结果收敛,如此运算完毕。

6.3k-means算法初始中心的选取对算法的影响

棋盘格数据集(Checkerboarddataset)仅使用其中486个正类数据,并将数据变换到[-1,1]之间,分布情况如如下图所示:

原始数据

初始聚类中心均在中心附近

初始聚类中心在平面内随机选取

七.k-means算法的改良方法

7.1k-means算法的改良方法——k-mode算法

◆k-modes算法:

实现对离散数据的快速聚类,保存了k-means算法的效率同时将k-means的应用X围扩大到离散数据。

◆K-modes算法是按照k-means算法的核心内容进展修改,针对分类属性的度量和更新质心的问题而改良。

具体如下:

1.度量记录之间的相关性D的计算公式是比拟两记录之间,属性一样为0,不同为1.并所有相加。

因此D越大,即他的不相关程度越强〔与欧式距离代表的意义是一样的〕;

2.更新modes,使用一个簇的每个属性出现频率最大的那个属性值作为代表簇的属性值。

7.2k-means算法的改良方法——k-prototype算法

◆k-Prototype算法:

可以对离散与数值属性两种混合的数据进展聚类,在k-prototype中定义了一个对数值与离散属性都计算的相异性度量标准。

◆K-Prototype算法是结合K-Means与K-modes算法,针对混合属性的,解决2个核心问题如下:

1.度量具有混合属性的方法是,数值属性采用K-means方法得到P1,分类属性采用K-modes方法P2,那么D=P1+a*P2,a是权重,如果觉得分类属性重要,如此增加a,否如此减少a,a=0时即只有数值属性

2.更新一个簇的中心的方法,方法是结合K-Means与K-modes的更新方法。

7.3k-means算法的改良方法——k-中心点算法

k-中心点算法:

k-means算法对于孤立点是敏感的。

为了解决这个问题,不采用簇中的平均值作为参照点,可以选用簇中位置最中心的对象,即中心点作为参照点。

这样划分方法仍然是基于最小化所有对象与其参照点之间的相异度之和的原如此来执行的。

八.K-means算法在图像分割上的简单应用

例1:

图片:

一只遥望大海的小狗;

此图为100x100像素的JPG图片,每个像素可以表示为三维向量〔分别对应JPEG图像中的红色、绿色和蓝色通道〕;

将图片分割为适宜的背景区域〔三个〕和前景区域〔小狗〕;

1.使用K-means算法对图像进展分割。

分割后的效果〔注:

最大迭代次数为20次,需运行屡次才有可能得到较好的效果。

例2:

注:

聚类中心个数为5,最大迭代次数为10。

聚类中心个数为3

〔程序如下〕

clc

clear

tic

RGB=imread('

test5.jpg'

);

%读入像

img=rgb2gray(RGB);

[m,n]=size(img);

subplot(2,2,1),imshow(img);

title('

图一原图像'

subplot(2,2,2),imhist(img);

图二原图像的灰度直方图'

holdoff;

img=double(img);

fori=1:

200

c1

(1)=25;

c2

(1)=125;

c3

(1)=200;

%选择三个初始聚类中心

r=abs(img-c1(i));

g=abs(img-c2(i));

b=abs(img-c3(i));

%计算各像素灰度与聚类中心的距离

r_g=r-g;

g_b=g-b;

r_b=r-b;

n_r=find(r_g<

=0&

r_b<

=0);

%寻找最小的聚类中心

n_g=find(r_g>

0&

g_b<

%寻找中间的一个聚类中心

n_b=find(g_b>

r_b>

0);

%寻找最大的聚类中心

i=i+1;

c1(i)=sum(img(n_r))/length(n_r);

%将所有低灰度求和取平均,作为下一个低灰度中心

c2(i)=sum(img(n_g))/length(n_g);

%将所有低灰度求和取平均,作为下一个中间灰度中心

c3(i)=sum(img(n_b))/length(n_b);

%将所有低灰度求和取平均,作为下一个高灰度中心

d1(i)=abs(c1(i)-c1(i-1));

d2(i)=abs(c2(i)-c2(i-1));

d3(i)=abs(c3(i)-c3(i-1));

ifd1(i)<

=0.001&

&

d2(i)<

d3(i)<

=0.001

R=c1(i);

G=c2(i);

B=c3(i);

k=i;

break;

end

R

G

B

img=uint8(img);

img(find(img<

R))=0;

img(find(img>

R&

img<

G))=128;

G))=255;

toc

subplot(2,2,3),imshow(img);

图三聚类后的图像'

subplot(2,2,4),imhist(img);

图四聚类后的图像直方图'

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 成人教育 > 远程网络教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1