叶志伟数据挖掘实验指导书算法编程部分.docx

上传人:b****7 文档编号:25005064 上传时间:2023-06-03 格式:DOCX 页数:54 大小:83.45KB
下载 相关 举报
叶志伟数据挖掘实验指导书算法编程部分.docx_第1页
第1页 / 共54页
叶志伟数据挖掘实验指导书算法编程部分.docx_第2页
第2页 / 共54页
叶志伟数据挖掘实验指导书算法编程部分.docx_第3页
第3页 / 共54页
叶志伟数据挖掘实验指导书算法编程部分.docx_第4页
第4页 / 共54页
叶志伟数据挖掘实验指导书算法编程部分.docx_第5页
第5页 / 共54页
点击查看更多>>
下载资源
资源描述

叶志伟数据挖掘实验指导书算法编程部分.docx

《叶志伟数据挖掘实验指导书算法编程部分.docx》由会员分享,可在线阅读,更多相关《叶志伟数据挖掘实验指导书算法编程部分.docx(54页珍藏版)》请在冰豆网上搜索。

叶志伟数据挖掘实验指导书算法编程部分.docx

叶志伟数据挖掘实验指导书算法编程部分

《数据挖掘与数据仓库》实验指导书

 

2013年

 

计算机学院计算应用

实验1Apriori算法实现

一、实验目的

1、掌握Apriori算法对于关联规则挖掘中频繁集的产生以及关联规则集合的产生过程;

2、根据算法描述编程实现算法,调试运行。

并结合相关实验数据进行应用,得到分析结果。

数据和删除数据的操作。

实验类型:

综合

计划课间:

2学时

二、实验内容

1、频繁项集的生成与Apriori算法实现;

2、关联规则的生成过程与Rule-generate算法实现;

3、结合样例对算法进行分析;

三、实验步骤

编写程序完成下列算法:

1、Apriori算法

输入:

数据集D;最小支持数minsup_count;

输出:

频繁项目集L

L1={large1-itemsets}

For(k=2;Lk-1≠Φ;k++)

Ck=apriori-gen(Lk-1);//Ck是k个元素的候选集

Foralltransactionst∈Ddo

beginCt=subset(Ck,t);//Ct是所有t包含的候选集元素

forallcandidatesc∈Ctdoc.count++;

end

Lk={c∈Ck|c.count≧minsup_count}

End

L=∪Lk;

2、apriori-gen(Lk-1)候选集产生算法

输入:

(k-1)-频繁项目集Lk-1

输出:

k-频繁项目集Ck

Forallitemsetp∈Lk-1do

Forallitemsetq∈Lk-1do

Ifp.item1=q.item1,p.item2=q.item2,…,p.itemk-2=q.itemk-2,p.itemk-1

then

beginc=p∞q

ifhas_infrequent_subset(c,Lk-1)

thendeletec

elseaddctoCk

End

ReturnCk

3、has_infrequent_subset(c,Lk-1)

功能:

判断候选集的元素

输入:

一个k-频繁项目集Lk-1,(k-1)-频繁项目集Lk-1

输出:

c是否从候选集中删除的布尔判断

Forall(k-1)-subsetsofcdo

IfNot(S∈Lk-1)THENreturnTRUE;

ReturnFALSE;

4、Rule-generate(L,minconf)

输入:

频繁项目集;最小信任度

输出:

强关联规则

算法:

FOReachfrequentitemsetlkinL

generules(lk,lk);

5、Genrules递归算法:

Genrules(lk:

frequentk-itemset,xm:

frequentm-itemset)

X={(m-1)-itemsetsxm-1|xm-1inxm};

Foreachxm-1inX

BEGINconf=support(lk)/support(xm-1);

IF(conf≧minconf)THEN

BEGIN

输出规则:

xm-1->(lk-xm-1),support,confidence;

IF(m-1)>1)THENgenrules(lk,xm-1);

END;

END;

结合相关样例数据对算法进行调试,并根据相关实验结果对数据进行分析,

四、实验报告要求

1、用C语言或者其他语言实现上述相关算法。

2、实验操作步骤和实验结果,实验中出现的问题和解决方法。

五、注意事项

1、集合的表示及相关操作的实现;

2、项目集的数据结构描述;

参考核心代码如下:

(相关的测试main函数可以自己书写。

根据频繁k项集生成关联规则相对简单,只需要计算最小置信度即可从频繁K项集中找到所有的满足条件的关联规则。

//对事物进行第一次扫描,生成频繁一项集,并返回一项集中个数

intinit_pass(char*item,chartran[len_t][len],intlen,charres_item[len_t][len],floatmin_sup)

{

floatt_sup;

intnumber=0;

for(inti=0;i

{

intcount=0;

for(intj=0;j

{

for(intk=0;k

if(item[i]==tran[j][k])

{

count++;

break;

}

break;

}

t_sup=count*1.0/len;

if(t_sup>=min_sup)

res_item[number++][0]=item[i];

}

returnnumber-1;

}

//生成候选K项集,返回k项集中事物的个数

intcandidate_gen(charktran[len][k],charkktran[len][k+1])

{

chartemp[k],temp1[k],ktemp[k+1];

intnumber=0;

for(inti=0;i

{

strcpy(temp,ktran[i]);

boolflag;

for(j=i+1;j

{

strcpy(temp1,ktran[i]);

for(intm=0;m

{

if((m

continue;

flag=true;

}

else{

flag=false;

break;

}

}

if(flag)

{

if(temp[k-1]>temp1[k-1])

{

strcpy(ktemp,temp1);

ktemp[k]=temp[k-1];

}

else

{

strcpy(ktemp,temp);

ktemp[k]=temp1[k-1]

}

break;

}

}

flag=judge(kemp,ktran[len][k]);

if(flag==true)

strcpy(kktran[number++],ktemp);

}

returnnumber-1;

}

//判断子集是否在k项集中

booljudge(char*srcstr,chardesstr[len][k])

{

chartemp[k];

intcount=0;

for(inti=0;i

{

for(intj=0;j

temp[j]=srcstr[j];

for(intj=i+1;j

temp[j]=srcstr[j];

for(intp=0;p

if(strcmp(temp,desstr[i])==0)

{

count++;

break;

}

}

if(count==k-1)

returntrue;

returnfalse;

}

//apriori算法

intapriori(charitem[len],chartran[length][len],charres_tran[length][len],floatmin_sup)

{

charttran[length][len];

intnumber,count,t_num;

for(inti=0;i

for(intj=0;j

ttran[i][j]='0';

number=init_pass(item,tran[length][len],len,ttran[length][len],min_sup);

for(inti=0i

res_tran[i][0]=ttran[i][0];

for(intk=2;number!

=0;k++)

{

t_num=number;

number=candidate_gen(res_item[number][k-1],ttran[number][k]);

if(k==2)

continue;

else

{

count=0;

for(inti=0;i

{

chartemp[k];

strcpy(temp,ttran[i]);

boolt_flag=false;

for(intj=0;j

{//求出候选K项集中每个事物的支持计数

intt_k=0;

for(intn=0;n

boolm_flag=false

for(intg=t_k;g

{

if(temp[k]==tran[j][g])

{

m_flag=true;

t_k=g;

break;

}

}

if(m_flag==true&&n==k-1)

t_flag=true;

}

if(t_flag==true)

count++;

flag=false;

}

if(count/length>min_sup)

strcpy(res_item[i],temp);

count=0;

}

}

}

returnt_num;}

实验2-1ID3算法实现

一、实验目的

通过编程实现决策树算法,信息增益的计算、数据子集划分、决策树的构建过程。

加深对相关算法的理解过程。

实验类型:

综合

计划课间:

4学时

二、实验内容

1、分析决策树算法的实现流程;

2、分析信息增益的计算、数据子集划分、决策树的构建过程;

3、根据算法描述编程实现算法,调试运行;

三、实验方法

算法描述:

以代表训练样本的单个结点开始建树;

若样本都在同一个类,则该结点成为树叶,并用该类标记;

否则,算法使用信息增益作为启发信息,选择能够最好地将样本分类的属性;

对测试属性的每个已知值,创建一个分支,并据此划分样本;

算法使用同样的过程,递归形成每个划分上的样本决策树

递归划分步骤,当下列条件之一成立时停止:

给定结点的所有样本属于同一类;

没有剩余属性可以进一步划分样本,在此情况下,采用多数表决进行

四、实验步骤

1、算法实现过程中需要使用的数据结构描述:

Struct

{intAttrib_Col;//当前节点对应属性

intValue;//对应边值

Tree_Node*Left_Node;//子树

Tree_Node*Right_Node//同层其他节点

BooleanIsLeaf;//是否叶子节点

intClassNo;//对应分类标号

}Tree_Node;

2、整体算法流程

主程序:

InputData();

T=Build_ID3(Data,Record_No,Num_Attrib);

OutputRule(T);

释放内存;

3、相关子函数:

3.1、InputData()

{

输入属性集大小Num_Attrib;

输入样本数Num_Record;

分配内存Data[Num_Record][Num_Attrib];

输入样本数据Data[Num_Record][Num_Attrib];

获取类别数C(从最后一列中得到);

}

3.2、Build_ID3(Data,Record_No,Num_Attrib)

{

IntClass_Distribute[C];

If(Record_No==0){returnNull}

N=newtree_node();

计算Data中各类的分布情况存入Class_Distribute

Temp_Num_Attrib=0;

For(i=0;i

If(Data[0][i]>=0)Temp_Num_Attrib++;

IfTemp_Num_Attrib==0

{

N->ClassNo=最多的类;

N->IsLeaf=TRUE;

N->Left_Node=NULL;N->Right_Node=NULL;

ReturnN;

}

IfClass_Distribute中仅一类的分布大于0

{

N->ClassNo=该类;

N->IsLeaf=TRUE;

N->Left_Node=NULL;N->Right_Node=NULL;

ReturnN;

}

InforGain=0;CurrentCol=-1;

Fori=0;i

{

TempGain=Compute_InforGain(Data,Record_No,I,Num_Attrib);

If(InforGain

{InforGain=TempGain;CurrentCol=I;}

}

N->Attrib_Col=CurrentCol;

//记录CurrentCol所对应的不同值放入DiferentValue[];

I=0;Value_No=-1;

Whilei

Flag=false;

For(k=0;k

if(DiferentValu[k]=Data[i][CurrentCol])flag=true;

if(flag==false)

{Value_No++;DiferentValue[Value_No]=Data[i][CurrentCol]}

I++;

}

SubData=以Data大小申请内存空间;

For(i=0;i

{

k=-1;

for(j=0;j

if(Data[j][CurrentCol]==DiferentValu[i])

{k=k++;

For(inti1=0;i1

If(i1<>CurrentCol)SubData[k][i1]=Data[j][i1];

ElseSubData[k][i1]=-1;

}

N->Attrib_Col=CurrentCol;

N->Value=DiferentValu[i];

N->Isleaf=false;

N->ClassNo=0;

N->Left_Node=Build_ID3(SubData,k+1,Num_Attrib);

N->Right_Node=newTree_Node;

N=N->Right_Node;

}

}

3.3、计算信息增益

Compute_InforGain(Data,Record_No,Col_No,Num_Attrib)

{

IntDifferentValue[MaxDifferentValue];

IntTotal_DifferentValue;

Ints[ClassNo][MaxDifferentValue];

s=0;//数组清0;

Total_DifferentValue=-1;

For(i=0;i

{

J=GetPosition(DifferentValue,

Total_DifferentValue,Data[i][Col_no]);

If(j<0){Total_DifferentValue++;

DifferentValue[Total_DifferentValue]=Data[i][Col_no];

J=Total_DifferentValue;}

S[Data[i][Num_Attrib-1]][j]++;

}

Total_I=0;

For(i=0;i

{

Sum=0;

For(j=0;j

Total_I=Compute_PI(Sum/Record_No);

}

EA=0;

For(i=0;i

{temp=0;sj=0;//sj是数据子集中属于类j的样本个数;

For(j=0;j

sj+=s[j][i];

For(j=0;j

EA+=sj/Record_No*Compute_PI(s[j][i]/sj);

}

Returntotal_I-EA;

}

3.4、得到某数字在数组中的位置

GetPosition(Data,DataSize,Value)

{

For(i=0;i

Return-1;

}

3.5、计算Pi*LogPi

FloatCompute_PI(floatpi)

{

Ifpi<=0thenreturn0;

Ifpi>=1thenreturn0;

Return0-pi*log2(pi);

}

五、实验报告要求

1、用C语言或者其他语言实现上述相关算法。

2、实验操作步骤和实验结果,实验中出现的问题和解决方法。

六、注意事项

1、信息增益的计算;

2、选择相关字段后根据相关字段的取值对数据集合进行划分。

3、决策树构建的终止条件

实验2-2贝叶斯算法实现

一、实验目的

通过对贝叶斯算法的编程实现,加深对贝叶斯算法的理解,同时利用贝叶斯算法对简单应用实现预测分类

实验类型:

综合

计划课间:

2学时

二、实验内容

1、分析贝叶斯算法;

2、计算条件概率;

3、预测精度的计算与评估;

4、编程实现贝叶斯分类算法,并对简单应用样本数据实现预测分类

5.参考实验数据http:

//archive.ics.uci.edu/ml/machine-learning-databases/wine/

三、实验方法

1、实现贝叶斯算法

2、利用实验数据对贝叶斯算法进行检测

3、求解精确度计算

4、调试程序

5、完成整个分类与评估的过程

四、实验步骤

4.1算法过程描述:

1)输入训练数据,将数据保存在DataBase二维数组中(数组的最后一个属性对应类别标号)

2)设定训练数据集与测试数据集大小(指定从数组下标0开始到TrainSetSize-1所对应的数据为训练数据,其余为测试数据);

3)计算训练数据集数据中各属性在各类中的概率分布情况;

4)利用测试数据计算贝叶斯算法的分类精度;

5)输出分类结果;

4.2数据处理

 

A、实验数据

RID

age

income

student

Credit_rating

BuyComputer

1

≦30

High

No

Fair

No

2

≦30

High

No

Excellent

No

3

31~40

High

No

Fair

Yes

4

>40

med

No

Fair

Yes

5

>40

Low

Yes

Fair

Yes

6

>40

Low

Yes

Excellent

No

7

31~40

Low

Yes

Excellent

Yes

8

≦30

Med

No

Fair

No

9

≦30

Low

Yes

Fair

Yes

10

>40

Med

Yes

Fair

Yes

11

≦30

Med

Yes

Excellent

Yes

12

31~40

Med

No

Excellent

Yes

13

31~40

High

Yes

Fair

Yes

14

>40

med

No

Excellent

No

B、对数据中的枚举类型数据进行转换以便于数据处理:

0

1

2

3

ClassNo

1

0

0

0

0

0

2

0

0

0

1

0

3

1

0

0

0

1

4

2

1

0

0

1

5

2

2

1

0

1

6

2

2

1

1

0

7

1

2

1

1

1

8

0

1

0

0

0

9

0

2

1

0

1

10

2

1

1

0

1

11

0

1

1

1

1

12

1

1

0

1

1

13

1

0

1

0

1

14

2

1

0

1

0

4.3计算训练数据集数据中各属性在各类中的概率分布情况如图3-1所示

4.4利用测试数据计算贝叶斯算法的分类精度如图3-2所示

 

No

No

Yes

Yes

申请AttSetSize*MaxAttSize*ClassSize大小的空间AttributeDistribute

i=0

i

j

AttributeDistribute[i][DataBase[j][i]][DataBase[j][AttSetSize-1]]++

AttributeDistribute0

For(i=0;i

For(j=0;j

For(k=0;k

AttributeDistribute[i][j][k]=0;

j=0

i++

No

i==AttSetSize-1

Yes

AttributeDistribute[i][0][DataBase[j][AttSetSize-1]]++

j++

图3-1训练数据集各属性的概率分布计算

 

 

申请ClassSize*ClassSize个空间Precise

i

Presize0

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1