ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:557.09KB ,
资源ID:4756452      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/4756452.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(KMEANS算法K均值算法.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

KMEANS算法K均值算法.docx

1、KMEANS算法K均值算法k-means 算法算法简介/c-means算法,也被称为k-平均或k-均值,是一种得到最广泛使用的聚类算 法。它是将各个聚类子集内的所有数据样本的均值作为该聚类的代表点,算法 的主要思想是通过迭代过程把数据集划分为不同的类别,使得评价聚类性能的准 则函数达到最优,从而使生成的每个聚类内紧凑,类间独立。这一算法不适合处 理离散型属性,但是对于连续型具有较好的聚类效果。二.划分聚类方法对数据集进行聚类时包括如下三个要点:(1)选定某种距离作为数据样本间的相似性度量k-means聚类算法不适合处理离散型属性,对连续型属性比较适合。因此在 il算数据样本之间的距离时,可以根

2、据实际需要选择欧式距离、曼哈顿距离或者 明考斯距离中的一种来作为算法的相似性度量,其中最常用的是欧式距离。下面 我给大家具体介绍一下欧式距离。X = 兀” I m 1,2,total假设给定的数据集 ,X中的样本用d个描述属性Ai,A2“Ad来表示,并且d个描述属性都是连续型属性。数据样本Xi=(Xii/Xi2/,Xid)/ Xj=(Xjl/Xj2/Xjd)其中,Xil,Xi2,Xid和Xjl,Xj2,Xjd分别是样本Xi和Xj对应d个描述属 性Ai,A2/-Ad的具体取值。样本xi和xj之间的相似度通常用它们之间的距离d(xi,xj) 来表示,距离越小,样本Xi和Xj越相似,差异度越小;距离

3、越大,样本Xi和Xj 越不相似,差异度越大。欧式距离公式如下:(2)选择评价聚类性能的准则函数k-means聚类算法使用误差平方和准则函数来评价聚类性能。给定数据集X, 其中只包含描述属性,不包含类别属性。假设X包含k个聚类子集Xi,X2,Xk;各个聚类子集中的样本数量分别为ni, ru,k;各个聚类子集的均值代表点(也 称聚类中心)分别为rrn, m2,ma k *则误差平方和准则函数公式为:E =工工|-|z-1 pwXj(3)相似度的计算根据一个簇中对象的平均值来进行。1) 将所有对象随机分配到k个非空的簇中。2) 计算每个簇的平均值,并用该平均值代表相应的簇。3) 根据每个对象与各个簇

4、中心的距离,分配给最近的簇。4) 然后转2),重新计算每个簇的平均值。这个过程不断重复直到满足某个准则 函数才停止。三.算法描述1.为中心向量ci, c2l.” 5初始化k个种子2.分组:a) 将样本分配给距离其最近的中心向量b) 由这些样本构造不相交(non-overlapping )的聚类3.确定中心:a)用各个聚类的中心向量作为新的中心4.重复分组和确定中心的步骤,直至算法收敛四.算法流程输入:簇的数忖k和包含门个对象的数据库。输出:k个簇,使平方误差准则最小。算法步骤:1.为每个聚类确定一个初始聚类中心,这样就有K个初始聚类中心。2.将样本集中的样本按照最小距离原则分配到最邻近聚类3.

5、使用每个聚类中的样本均值作为新的聚类中心。4.重复步骤步直到聚类中心不再变化。5.结束,得到K个聚类五.算法举例数据对象集合S见表1,作为一个聚类分析的二维样本,要求的簇的数量心2。0XY10220030450552选择 0,(0,2), 02(0,0)为初始的簇中心,即 M,=O,=(0,2) ,/W2=02=(0,0)(2)对剩余的每个对象,根据其与各个簇中心的距离,将它赋给最近的簇。对: d(yW,) = (0-1.5)2+(2-0)2 = 2.5 d(M2,0,) = (0-1.5)2+(0-0)2 = 1.5 显然d(M2,O3)5d(MO3),故将3分配给C?对于 O4 : J(M

6、pO4) = (0-5)2+(2-0)2 = /29 (见。)=J(0-5)+(0-0),=5因为d(M2,O4)5d(M|,O,所以将0 分配给6对于。5 : d(MO,) = J(0 5+(2_2=5 J(M2,O5) = J(0_5+(0_2=冋因为d(MvO5)d(M2iO5),所以将Q分配给G更新,得到新簇q=oo5和C2=O2,OO4计算平方误差准则,单个方差为, = (0 - 0)2 +(2 - 2)2 + (0 - 5)2 +(2 - 2)2 = 25 E2 = 27.25总体平均方差是:E = E, + 2 = 25 + 27.25 = 52.25(3)计算新的簇的中心。=(

7、0+5)/2,(2+2)/2)=(2.5,2)陆=(0 +1.5 + 5)/3, (0+0+0)/3)= (2.17,0)重复(2)和(3),得到6分配给C1; 02分配给C2,03分配给C2 , 04分配给C2, 05 分配给 Ci。更新,得到彌簇OO5 C2#O2,O5,O4 o中心为 M】=(2.5,2) , =(2.17,0)。单个方差分别为厶=(0-2.5)+(2-2) + (25-5)+(2 2)打=12.5 ,=13.15总体半均误差是: = 1+2 =12.5 + 135 = 25.65由上可以看出,第一次迭代后,总体平均误差值,显着减小。由于在两次迭代 中,簇中心不变,所以停

8、止迭代过程,算法停止。六.k-means算法的性能分析k-means算法的优缺点主要优点:1.是解决聚类问题的一种经典算法,简单、快速。2.对处理大数据集,该算法是相对可伸缩和高效率的。因为它的复杂度是0 (n k t)z其中小 是所有对象的数目,k是簇的数目,t是迭代的次数。通常kn 且 t n o3.当结果簇是密集的,而簇与簇之间区别明显时,它的效果较好。主要缺点1.在簇的平均值被定义的悄况下才能使用,这对于处理符号属性的数据不适 用。2.必须事先给出k (要生成的簇的数口),而且对初值敬感,对于不同的初始值, 可能会导致不同结果。3.它对于“躁声”和孤立点数据是敬感的,少量的该类数据能够

9、对平均值产生 极大的影响。针对K-Means算法对于不同的初始值,可能会导致不同结果。解决方法:1.多设置一些不同的初值,对比最后的运算结果)一直到结果趋于稳定结束, 比较耗时和浪费资源2.很多时候,事先并不知道给定的数据集应该分成多少个类别才最合适。这 也是K-means算法的一个不足。有的算法是通过类的自动合并和分裂,得到较 为合理的类型数目K,例如ISODATA算法。3.所谓的gapstatistics ( Gap统计模型)ISODATA 算法ISODATA算法与K均值算法的比较:1.K-均值算法通常适合于分类数口已知的聚类,而ISODATA算法则更加灵活;2.从算法角度看,ISODAT

10、A算法与K-均值算法相似,聚类中心都是通过样本均 值的迭代运算来决定的;3.ISODATA算法加入了一些试探步骤,并且可以结合成人机交互的结构,使其 能利用中间结果所取得的经验更好地进行分类。主要是在选代过程中可将一 类一分为二,亦可能二类合二为一,即“自组织”,这种算法具有启发式的 特点。ISODATA算法与K-means相比在下列几方面有改进:1.考虑了类别的合并与分裂,因而有了自我调整类别数的能力。合并主要发 生在某一类内样本个数太少的情况,或两类聚类中心之间距离太小的情况。为此 设有最小类内样本数限制&Z ,以及类间中心距离参数。若出现两类聚类中 心距离小于&=的情况,可考虑将此两类合

11、并。分裂则主要发生在某一类别的某分量出现类内方差过大的现象,因而宜分裂成两个类别,以维持合理的类内方差。给出一个对类内分量方差的限制参数, 用以决定是否需要将某一类分裂成两类。2.山于算法有自我调整的能力,因而需要设置若干个控制用参数,如聚类数 期望值K、每次迭代允许合并的最大聚类对数L、及允许迭代次数I等。ISODATA算法基本步骤和思路选择某些初始值。可选不同的参数指标,也可在迭代过程中人为修改,以将 N个模式样本按指标分配到各个聚类中心中去。计算各类中诸样本的距离指标函数。(3) (5)按给定的要求,将前一次获得的聚类集进行分裂和合并处理(4) 为分裂处理,(5)为合并处理),从而获得新

12、的聚类中心。重新进行迭代运算,计算各项指标,判断聚类结果是否符合要求。经过多次 迭代后,若结果收敛,则运算结束。/c-means算法初始中心的选取对算法的影响棋盘格数据集(Checkerboard data set)仅使用其中486个正类数据,并将数据 变换到卜之间,分布情况如下图所示:初始聚类中心均在中心附近Pointso Initial Centers*Cluster Centers初始聚类中心在平面内随机选取七k-means算法的改进方法k-means算法的改进方法 k-mode算法k-modes算法:实现对离散数据的快速聚类,保留了 k-means算法的效率 同时将k-means的应用

13、范围扩大到离散数据。K-modes算法是按照k-means算法的核心内容进行修改,针对分类属性的 度量和更新质心的问题而改进。具体如下:1.度量记录之间的相关性D的计算公式是比较两记录之间,属性相同为0, 不同为1.并所有相加。因此D越大,即他的不相关程度越强(与欧式距离代表 的意义是一样的);2.更新modes,使用一个簇的每个属性出现频率最大的那个属性值作为代表 簇的属性值。k-means算法的改进方法 k-prototype算法k-Prototype算法:可以对离散与数值属性两种混合的数据进行聚类,在 /c-prototype中定义了一个对数值与离散属性都计算的相异性度量标准。K-Pro

14、totype算法是结合K-Means与K-modes算法,针对混合属性的,解 决2个核心问题如下:1.度量具有混合属性的方法是,数值属性釆用K-means方法得到Pl,分类属 性采用K-modes方法P2,那么D=Pl+a*P2, a是权重,如果觉得分类属性重要, 则增加a,否则减少a, a=0时即只有数值属性2.更新一个簇的中心的方法,方法是结合K-Means与K-modes的更新方法。k-means算法的改进方法一一k中心点算法匕中心点算法:/c-means算法对于孤立点是敬感的。为了解决这个问题,不釆用簇中的平均值作为参照点,可以选用簇中位置最中心的对象,即中心点作为 参照点。这样划分方

15、法仍然是基于最小化所有对象与其参照点之间的相异度之和 的原则来执行的。八.K-means算法在图像分割上的简单应用例1:图片:一只遥望大海的小狗;此图为100 x 100像素的JPG图片,每个像素 可以表示为三维向量(分别对应JPEG图像中的红色、绿色和蓝色通道);将图片 分割为合适的背景区域(三个)和前景区域(小狗);1.使用K-means算法对图像进行分割。10203040SO6070分割后的效果(注:最大迭代次数为20次,需运行多次才有可能得到较好的效果。)例2:聚类中心个数为3(程序如下)clcclearticRGB= imread (); %读入像img=rgb2gray(RGB);

16、m/n=size(img);subplot(2/2/l)/imshow(img);title(,图一 原图像J subplot(2/2/2)/imhist(img);title(图二原图像的灰度直方图J hold off;img=double(img);for i=l:200cl(l)=25;c2(l)=125;c3(l)=200;%选择三个初始聚类中心r=abs(img-cl(i);g=abs(img-c2(i);b=abs(img-c3(i);%讣算各像素灰度爲聚类中心的距肉r_g=r-g;g_b=gb;r_b=r-b;n_r=find(r_g=0&r_b0&g_b0&r_b0);% J找

17、最大的聚类屮心 i=i+l;cl(i)=sum(img(n_r)/length(n_r);%将所有低灰度求和取平均,作为下一个低 灰度中心c2(i)=sum(img(n_g)/length(n_g);%将所有低灰度求和取平均,作为下一个中 间灰度中心c3(i)=sum(img(n_b)/length(n_b);%将所有低灰度求和取 卩均,作为下一个f;j 灰度中心dl(i)=abs(cl(i)-cl(i-l);d2(i)=abs(c2(i)-c2(i-l);d3(i)=abs(c3(i)-c3(i-l);if dl(i)=&d2(i)=&d3(i)=R=cl(i);G=c2(i);B=c3(i);k=i;break;endendRGBimg=uint8(img);img(find(imgR&imgG)=255;toesubplot(2,2,3),imshow(img);title(图 2 聚类后的图像J subplot(2/2/4)/imhist(img);title(, 四 聚类后的图像直方图)

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1