k最近邻算法实验报告.docx
《k最近邻算法实验报告.docx》由会员分享,可在线阅读,更多相关《k最近邻算法实验报告.docx(10页珍藏版)》请在冰豆网上搜索。
k最近邻算法实验报告
k-最近邻算法实现
题目学生姓名学生学号专业班级指导教师
2015-1-2
实验二k•最近邻算法实现
一、实验目的
1.加强对k-最近邻算法的理解;
2.
锻炼分析问题、解决问题并动手实践的能力。
使用一种你熟悉的程序设计语言,如C++或Java,给定最近邻数k和描述每个元组的属性数n,实现k•最近邻分类算法,至少在两种不同的数据集上比较算法的性能。
三、实验环境
Win7旗舰版+VisualStudio2010
语言:
C++
KNN(kNearestNeighbors)算法乂叫k最临近方法。
假设每一个类包含多个样本数据,而且每个数据都有一个唯一的类标记表示这些样本是属于哪一个分类,KNN就是计算每个样本数据到待分类数据的距离。
如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
该方法在定类决策上只依据最邻近的一个或者几个样本的类别來决定待分样本所属的类别。
KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。
因此,釆用这种方法可以较好地避免样本的不平衡问题。
另外,由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法來确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集來说,KNN方法较其他方法更为适合。
该方法的不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体己知样本的距离,才能求得它的K个最近邻点。
目前常用的解决方法是事先对己知样本点进行剪辑,事先去除对分类作用不大的样本。
该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域釆用这种算法比较容易产生误分。
1>算法思路
K-最临近分类方法存放所有的训练样本,在接受待分类的新样本之前不需构造模型,并且直到新的(未标记的)样本需要分类时才建立分类。
K-最临近分类基于类比学习,其训练样本由N维数值属性描述,每个样本代表N维空间的一个点。
这样,所有训练样本都存放在N维模式空间中。
给定一个未知样本,k-最临近分类法搜索模式空间,找出最接近未知样本的K个训练样本。
这K个训练样本是未知样本的K个“近邻”。
“临近性”乂称为相异度(Dissimilarity),由欧几里德距离定义,其中两个点X(xl,x2,…,xn)和Y(yl,y2,…,yn)的欧几里徳距离是:
Djx,y)=一儿尸+(乞一卩2尸+・・・+g—y”)2
未知样本被分配到K个最临近者中最公共的类。
在最简单的情况下,也就是当k=i时,未知样本被指定到模式空间中与之最临近的训练样本的类。
2、算法步骤
step.1---初始化距离为最大值;
step.2—if算未知样本和每个训练样本的距离dist;
step.3---得到目前K个最临近样本中的最大距离maxdist;
step.4---如果dist小于maxdist,则将该训练样本作为K-最近邻样本;
step.5…重复步骤2、3、4,直到未知样本和所有训练样本的距离都算完;
step.6—统计K-最近邻样本中每个类标号出现的次数;
step.7-选择出现频率最大的类标号作为未知样本的类标号。
3、算法伪代码
搜索k个近邻的算法:
kNN(A[n],k)
输入:
A[ii]为N个训练样本在空间中的坐标(通过文件输入),k为近邻数输出:
x所属的类别
取A[l]〜A[k]作为x的初始近邻,计算与测试样本x间的欧式距离d(x,A[i]),i=l,2,.....,k;按d(x,A[i])升序排序,计算最远样本与x间的距离D<——max{d(x,a[j])Ij=l,2,.....,k};
for(i=k+l;i<=ii;i++)
计算a[i]与x间的距离d(x,A[i]);
if(d(x,A[i]))then用A[i]代替最远样本
按照d(x,A[i])升序排序,计算最远样本与x间的距离D<—max{d(x,A[j])|};计算前k个样本A[i]),i=l,2,...,k所属类别的概率,具有最大概率的类别
即为样本x的类。
五、数据结构
0
0main
0get.distance
代码结构如图所示,方法描述如下:
KNN:
KNN类构造函数,用于读取数据集;
get_all_distance:
KNN类公有函数,计算要分类的点到所有点的距离;get_distance:
KNN类私有函数,计算两点间的距离;
get_max_freq_label:
KNN类公有函数,在k个数据里,获取最近k个数据的分类最多的标签,将测试数据归位该类。
类图如上图所示,KNN类的成员变量描述如下:
dataSet:
tData型二维数组,用于训练的数据集;
k:
int型,从k个最近的元素中,找类标号对应的数目的最大值,归类;
labels:
tLable型一维数组,类标签;
mapjndex_dist:
mapvint,double〉型,记录测试点到各点的距离;map_label_freq:
map型,记录k个邻居类,各类的个数。
六、程序截图
pleaseinputthekvalue:
pleaseinputthetestdata:
24index=index=index=index=index=index=index=index=index=index=
0distance=
1distance=
2distanew=
3distancQ=
4distance二
5distance=
6distaneo=
3.80789
3.53553
4.47214
4.12311
7distance=4
8distance=4.12311
9distance=5.38516thedistance=thedistance=thedistance=thedistance=
ind—=2
index=1index=0index=4testdatabelongstoth©
theth®thetheThe请按任亘薛继续••
3th©label
3.16228
3.52278
3.53553
Blabel
the
the
the
=Bthecoordinate(2.1)
label=Cthecoordinate(1,1)
label=Athecoordinate(0,1.1)
label=Bthecoordinate(2.5.0.5)
七、实验总结
八、附件
1.程序源码kNNl.cpp
#include
#include
#include
#include
#include
usingnamespacestd;
typedefchartLabel;
typedefdoubletData;
typedefpairPAIR;
constintcolLen=2;
constintrowLen=10;
ifstreamfill;
classKNN
{
private:
tDatadataSet[rowLen][colLen];
tLabellabels[rowLen];
intk;
mapmap_index_dis;mapmap_label_fieq;doubleget_distance(tData*dl,tData*d2);
public:
KNN(intk);
voidget_all_distance(tData*testData);
voidget_max_freq_.label();
stmctCmpByAalue
{
booloperatorQ(constPAIR&lhs’constPAIR&rhs)
retiunIlls.second};
KNN:
:
KNN(intk)
{
this->k=k;
fin.open(udata.txtn);
if(!
fin)
{
cout«Mcannotopenthefiledata.txtn«endl;exit(l);
}
/*inputthedataSet*/fbr(inti=0;i{
fbr(intj=0;j{
fin»dataSet[i]|j];
}fin»labels[i];
}
}
/*
*calculatethedistancebetweentestdataanddataSet[i]*/
doubleKNN:
:
get_distance(tData*dl,tData*d2)
{_
doublesum=0;
for(inti=0;i{
sum+=pow((dl[i]-d2[i]),2);
}
//cout«Hthesumis=M«sum«endl;
retiinisqrt(sum);
*calculateallthedistancebetweentestdataandeachtrainingdata
*/
voidKNN:
:
get_all_distance(tData*testData)
{_
doubledistance;
inti;
for(i=0;i{
distance=get_distance(dataSet[i].testData);
//=>vi,distance〉map_index_dis[i]=distance;
}~~
//tiaversethemaptoprinttheindexanddistancemap:
:
const_iteratorit=map」ndex_dis.begin();
while(it!
=niap_index_dis.end())
{一-
cout«Mindex=n«it->first«Hdistance=H«it->second«endl;
it++;
}
}
/*
*checkwhichlabelthetestdatabelongstotoclassifythetestdata
*/
voidKNN:
:
get_max_fieq_labelO
{一一
//tiansfonnthemap_iiidex_distovec_index_disvector
vec_iiidex_dis(map_index_dis.begin(),map_index_dis.end());
//sortthevec_iiidex_disbydistancefiomlowtohightogetthenearestdatasoit(vec_index_dis.begin(),vec_index_dis.endO,CmpByAalue());
for(inti=0;i{
cout«Htheindex=n«vec_index_dis[i].first«uthedistance=M«vec_index_dis[i].second«nthelabel=n«labels[vec_index_dis[i].first]«nthecoordinate
(n«dataSet[vec_iiidex_dis[i].first][0]«\n«dataSet[vec_index_dis[i].first][l]«u)u«endl;
//calculatethecountofeachlabel
map_label_freq[labels[vec_index_dis[i].first]]++;
}-
map:
:
const_iteratormap_it=map_label_fieq.begin();
tLabellabel;
intmax_fieq=0;
//findthemostfrequentlabel
while(map_it!
=map_label_freq.endO)
{-
if(map_it->second>max_freq)
{--max_fieq=map_it->second;label=map」t->first;
}~map_it++;
}-cout«HThetestdatabelongstothen«label«Mlabeln«endl;
}
intmainO
{
tDatatestData[colLen];
intk;
cout«Hpleaseinputthekvalue:
u«endl;cin»k;
KNNkim(k);cout«Hpleaseinputthetestdata:
n«endl;
for(inti=0;icin»testData[i];
kiin.get_all_distance(testData);
kiin.get_max_freq_label();
system(Hpauseu);
retiun0;
}
2.数据集data.txt
data.txt■记寻本
文件佝珂E)格式(0)靠0
0.01.1A
1.01.0C
2-01.0B
0.5①5B
2.50.5B
0.00.0C
L00.0A
2-00.0C
3.00.0B
0-0-L0C
1.0-1.0A
2.0-L0B
4.02.5A
2-02.5B
4-01.5C
L02.0A
0-51.5A
-1.00-0B
-2.00.0A
-3.04-0C