ImageVerifierCode 换一换
格式:DOCX , 页数:13 ,大小:75.73KB ,
资源ID:22336153      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/22336153.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(实验三决策树算法实验实验报告Word文档下载推荐.docx)为本站会员(b****7)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

实验三决策树算法实验实验报告Word文档下载推荐.docx

1、 (7) 以test_attribute 标记节点N;(8) For each test_attribute 的已知值v /划分 samples ;(9) 由节点N分出一个对应test_attribute=v的分支;(10令Sv为 samples中 test_attribute=v 的样本集合;/一个划分块 (11)If Sv为空 then (12)加上一个叶节点,以samples中最普遍的类标记;(13)Else 加入一个由Decision_Tree(Sv,attribute_list-test_attribute)返回节点值。(2)实验数据预处理Age:30岁以下标记为“1”;30岁以上5

2、0岁以下标记为“2”;50岁以上标记为“3”。Sex:FEMAL-“1”;MALE-“2”Region:INNERCITY-“1”;TOWN-“2”;RURAL-“3”;SUBURBAN-“4”Income:50002万-“1”;2万4万-“2”;4万以上-“3”MarriedChildrenCarMortgagePep:以上五个条件,若为“是”标记为“1”,若为“否”标记为“2”。Age sex region income married children car mortgage pep 1 2 1 1 2 1 1 2 21 2 1 1 2 2 2 2 12 1 4 1 2 1 2 2 1

3、 2 1 1 1 1 2 2 2 21 2 1 1 1 2 2 2 2 1 2 1 1 2 1 2 1 1 2 1 2 1 1 2 1 1 2 2 1 1 1 2 1 1 2 1 2 1 3 1 2 2 1 2 1 2 1 2 2 2 1 2 2 2 2 2 1 2 2 2 2 1 1 2 1 2 2 1 1 2 1 1 2 2 1 2 1 2 2 1 2 1 1 1 2 1 2 2 2 1 3 2 1 2 1 1 1 2 2 1 1 1 2 1 1 1 2 1 1 1 3 2 2 2 1 2 1 3 1 2 2 1 2 2 2 1 3 2 3 3 1 1 1 2 1 3 2 2 3 1 2

4、1 1 2 3 1 3 3 1 1 2 2 1 3 2 1 3 1 2 1 2 2 3 2 1 3 1 1 1 1 1 3 1 1 3 1 2 1 1 2 3 1 3 3 1 2 2 2 2 3 2 4 3 1 2 2 1 1 3 1 3 3 2 2 1 1 2(3)Matlab语句:Tree RulesMatrix= DecisionTree(DataSet, AttributName);六、实验结果:实验程序:function Tree RulesMatrix=DecisionTree(DataSet,AttributName)%输入为训练集,为离散后的数字,如记录1:1 1 3 2 1;

5、%前面为属性列,最后一列为类标if narginmostlabelnum) mostlabelnum=length(ValRecords(i).matrix); mostlabel=i; Tree.Attribut=mostlabel;length(Attributs) Sa(i) ValRecord=ComputEntropy(DataSet,i); Gains(i)=S-Sa(i); AtrributMatric(i).val=ValRecord; maxval maxindex=max(Gains); Tree.Attribut=Attributs(maxindex); Attribut

6、s2=Attributs(1:maxindex-1) Attributs(maxindex+1:length(Attributs);length(AtrributMatric(maxindex).val) DataSet2=DataSet(AtrributMatric(maxindex).val(j).matrix,1:maxindex-1) DataSet(AtrributMatric(maxindex).val(j).matrix,maxindex+1:size(DataSet,2); if(size(DataSet2,1)=0) Tree.Child(j).root.Attribut=m

7、ostlabel; Tree.Child(j).root.Child=; Tree.Child(j).root=CreatTree(DataSet2,Attributs2); end function Entropy RecordVal=ComputEntropy(DataSet,attribut) %计算信息熵 if(attribut=0) clnum=0;size(DataSet,1) if(DataSet(i,size(DataSet,2)clnum) %防止下标越界 classnum(DataSet(i,size(DataSet,2)=0; clnum=DataSet(i,size(D

8、ataSet,2); RecordVal(DataSet(i,size(DataSet,2).matrix=; classnum(DataSet(i,size(DataSet,2)=classnum(DataSet(i,size(DataSet,2)+1; RecordVal(DataSet(i,size(DataSet,2).matrix=RecordVal(DataSet(i,size(DataSet,2).matrix i; Entropy=0;length(classnum) P=classnum(j)/size(DataSet,1); if(P=0) Entropy=Entropy+

9、(-P)*log2(P); valnum=0; if(DataSet(i,attribut)valnum) %防止参数下标越界 clnum(DataSet(i,attribut)=0; valnum=DataSet(i,attribut); Valueexamnum(DataSet(i,attribut)=0; RecordVal(DataSet(i,attribut).matrix=; %将编号保留下来,以方便后面按值分割数据集clnum(DataSet(i,attribut) %防止下标越界 Value(DataSet(i,attribut).classnum(DataSet(i,size

10、(DataSet,2)=0; clnum(DataSet(i,attribut)=DataSet(i,size(DataSet,2); Value(DataSet(i,attribut).classnum(DataSet(i,size(DataSet,2)= Value(DataSet(i,attribut).classnum(DataSet(i,size(DataSet,2)+1; Valueexamnum(DataSet(i,attribut)= Valueexamnum(DataSet(i,attribut)+1; RecordVal(DataSet(i,attribut).matrix

11、=RecordVal(DataSet(i,attribut).matrix i;valnum Entropys=0; for k=1:length(Value(j).classnum) P=Value(j).classnum(k)/Valueexamnum(j); Entropys=Entropys+(-P)*log2(P); Entropy=Entropy+(Valueexamnum(j)/size(DataSet,1)*Entropys;function showTree(Tree,level,value,branch,AttributValue,AttributName) blank=;

12、level-1 if(branch(i)=1) blank=blank |; if(level=0) blank= (The Root): if isempty(AttributValue)|_ int2str(value) _ value if(length(Tree.Child)=0) %非叶子节点 if isempty(AttributName) disp(blank Attribut int2str(Tree.Attribut); AttributNameTree.Attribut);length(Tree.Child)-1 showTree(Tree.Child(j).root,le

13、vel+1,j,branch 1,AttributValue,AttributName); showTree(Tree.Child(length(Tree.Child).root,level+1,length(Tree.Child),branch(1:length(branch)-1) 0 1,AttributValue,AttributName); rule=cell2struct(content(j,1), content(j,1)=num2str(Tree.Attribut) , num2str(i) rule.str; Rules=Rules;content; Rules= num2str(Tree.Attribut);

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1