ImageVerifierCode 换一换
格式:DOCX , 页数:13 ,大小:87.74KB ,
资源ID:20209251      下载积分:12 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/20209251.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(数据挖掘导论第四章924概论Word文档格式.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

数据挖掘导论第四章924概论Word文档格式.docx

1、(1)算法的第二步所创建的子女节点可能为空,即不存在与这些相关联的记录。如果没有一个训练记录包含与这样的节点相关联的属性值组合,这种情形就肯能发生,这时该节点成为一个叶节点,类标号为其父节点上训练记录中的多数类。(2)在第二步,如果与 相关联的所有记录都具有相同的属性值(目标属性除外),则不可能进一步划分这些记录。在这种情况下,该节点为叶节点,其标号与该节点相关联的训练记录中的多数类。决策树归纳的设计问题,决策树归纳必须解决以下两个问题:(1)如何分裂训练记录?树增长过程中的每个递归步都必须选择一个属性测试条件,将记录划分成较小的子集。因此算法必须提供为不同类型的属性指定测试条件的方法,并且提

2、供评估美中测试条件的客观度量。(2)如何停止分裂过程?终止决策树生长的过程的两个策略:分裂节点,知道所有记录都属于同一个类,或者所有记录都具有相同的属性值。尽管两个结束条件对于结束决策树归纳算法都是充分的,但还是可以提前终止生长。选择最佳划分的度量选择最佳划分的度量 选择最佳划分的度量通常是根据划分后子女节点不纯性的程度。不纯的程度越低,类分布就越倾斜。不纯性度量的例子包括:Entropy(t)=Gini(t)=1-Classfication error(t)=1-max 其中 c是类的个数,并且在计算熵时,。以上三种方法都是在类均衡时达到最大值,当所有记录都属于同一类时,达到最小值。为了确定

3、测试条件的效果,我们需要比较父结点(划分前)的不纯程度和子女结点(划分后)的不纯程度。它们的差越大,测试条件的效果就越好,带来的增益定义如下:其中,I(.)是给定结点的不纯性度量,N是父结点上的记录总数,k 是属性值的个数。是与子女结点 相关联的记录的个数。对于所有的测试条件来说,I(parent)是一个不变值,所以最大化增益等价于最小化子女结点的不纯性度量的加权平均。当选择熵作为不纯性度量时,熵的差就是所谓信息增益(information gain)。二元属性划分:以下表为例计算。父结点 C0 6 C1 6 Gini=0.5 分类 A N1 N2 C0 4 2 C1 3 3 Gini=0.4

4、86 分类 B N1 N2 C0 1 5 C1 4 2 Gini=0.371 Gini(A)=(7/12)*Gini(N1)+(5/12)*Gini(N2)Gini(B)=(5/12)*Gini(N1)+(7/12)*Gini(N2)Gini(N1)和 Gini(N2)由 2.4 中的第二个公式计算 标称属性的划分:与二元划分类似,只不过多计算一些结点而已。一般来说,多路划分的 Gini 指标比二元划分都小,因为二元划分实际上合并了多路划分的某些输出,自然降低了自己的纯度。连续属性的划分:总体思路是把连续属性划分为若干个区间,在套用 1、2 中的思路。但在这之前,如果先对训练记录按照分类属性进

5、行排序,能够把时间复杂度从 降低至。其他还有一些可以考虑的优化方案:如仅考虑位于具有不同类标号的两个相邻记录之间的候选划分点。增益率 熵和 Gini 指标等不纯性度量趋向有利于具有大量不同值得属性。这样,即使在不太极端情形下,也不会希望产生大量输出的测试条件,因为与每个划分相关联的记录太少,以致不能做出可靠的预测。解决该问题的策略有两种。第一种是限制测试条件只能是二元划分(CART),另一种策略是修改评估划分的标准,把属性测试条件产生的输出数也考虑进去。如,C4.5 的增益率(gain ratio)定义如下:其中,划分信息,而 k是划分的总数。决策树归纳算法决策树归纳算法 首先,给出下表算法称

6、作 TreeGrowth 的决策树归纳算法的框架。该算法的输入是训练记录集 E和属性集 F。算法递归地选择最优的属性来划分数据(步骤 7),并扩充树的叶结点(步骤 11和步骤 12),知道满足结束条件(步骤 1)。算法 决策树归纳算法的框架 TreeGrowth(E,F)1:if stopping_cond(E,F)=true then 2:leaf=createNode()3:leaf.label=Classify(E)4:return leaf 5:else 6:root=createNode()7:root.test_cond=find_best_split(E,F)8:令 V=v|v

7、是 root.test_cond 的一个可能的输出 9:for 每个 vV do 10:=e|root.test_cond(e)=v,并且 eE 11:child=TreeGrowth(,F)12:将 child 作为 root 的派生结点添加到树中,并将边(root-child)标记为 v 13:end for 14:end if 15:return root 以上算法的细节如下:1.函数 createNode()为决策树建立新的结点。决策树的结点或一个测试条件,记作node.test_cond,或者是一个类标号,记作 node.Label。2.函数 find_best_split()确定应

8、当选择哪个属性作为划分训练记录的测试条件。3.函数 Classify()为叶结点确定类标号,对于每个叶结点 t,令 p(i|t)表示该节点上属于类 i 的训练记录所占的比例,在大多数情况下,都将叶结点指派到具有多数记录的类:其中,操作 argmax 返回最大化 p(i|t)的参数值。P(i|t)还可用来估计分配到叶结点 t的记录属于类 i 的概率。4.函数 stopping_cond()通过检查是否所有的记录都属于同一个类,或者都具有相同的属性值,决定是否终止决策树的增长。终止函数的另一种方法是,检查记录数是否小于某个最小阈值。建立决策树后,可以进行树剪枝(tree-pruning),以减小决

9、策树的规模。决策树过大容易造成过分拟合(overfitting)。算法特点算法特点 下面是对决策树归纳算法重要特点的总结。1.决策树归纳是一种构建分类模型的非参数方法。它不需要任何先验假设,不假定类和其他属性服从一定的概率分布。2.找到最佳的决策树是 NP 完全问题。3.已开发的构建决策树技术不需要昂贵的计算代价。决策树一旦建立,未知样本的分类非常快,最坏情况的时间复杂度 O(w),其中 w是数的最大深度。4.决策树相对容易解释。5.决策树是学习离散值函数的典型代表。但是,它不能很好的推广到某些特定的布尔问题。6.决策树算法对于噪声的具有很好的健壮性(鲁棒性),采用避免过分拟合的方法之后尤其如

10、此。7.冗余属性不会对决策树的准确率造成不利影响。然而,数据集中的不相关属性会对其造成影响。8.可能造成数据碎片问题(data fragmentation)。9.子树可能在决策树中重复多次。10.决策边界(decision boundary,两个不同类的相邻区域之间的边界称作决策边界)可能不平行于 x,y轴。此时,就会涉及到斜决策树(oblique decision tree)和构造归纳(constructive induction,书 2.3.5节,会产生冗余属性)的相关问题。11.不纯性度量方法的选择对决策树算法的性能影响很小。模型的过拟合模型的过拟合 分类模型的误差大致分为两种:训练误差

11、(training error)和泛化误差(generalization error)。一般来说,训练误差随模型的复杂度增加而降低,泛化误差与之相反。过拟合现象:模型过于追求对训练记录的拟合程度而失去了对未知数据的预测和泛化能力。反之,如果训练集很小,则可能造成拟合补足的现象。造成过拟合的原因造成过拟合的原因 噪声导致的过分拟合:由于某些离群点和特殊的训练记录导致的模型复杂度增加,从而导致模型的泛化能力和预测能力下降。缺乏代表性样本导致的过分拟合:根据少量训练记录做出分类决策的模型也容易受过分拟合的影响。由于训练数据缺乏具有代表性的样本,在没有多少训练记录的情况下,学习算法仍然继续细化模型就会

12、产生这样的模型。多重比较(multiple comparison procedure)过程的学习算法导致的过分拟合:设 是初始决策树,是插入属性 x 的内部结点后的决策树。原则上,如果观察到的增益(,)大于某个预先定义的阈值,就可以将 x 添加到树中。如果只有一个属性测试条件,则可以通过足够大的阈值 来避免插入错误的结点。然而,在实践中,可用的属性终止测试条件不止一个,并且决策树算法必须从候选集 中选择最佳属性 来划分数据。在这种情况下,算法实际上是使用多重比较过程来决定是否需要扩展决策树。更具体地说,这是测试(,),而不是测试(,)。随着候选个数 k 的增加,找到(,)的几率也在增加。除非根

13、据 k修改增益函数 或阈值,否则算法会不经意间在模型上增加一些欺骗性的结点,导致模型过分拟合。大量的候选属性和少量的训练记录最后可能导致模型的过分拟合。泛化误差估计泛化误差估计 1.再代入估计 再代入估计方法假设训练数据集可以很好地代表整体数据,因而,可以使用训练误差(又称再代入误差)提供对泛化误差的乐观估计。但是,训练误差通常是泛化误差的一种很差的估计。2.结合模型复杂度估计 一般来说,模型越是复杂,出现先过拟合的几率就越高。这种策略与应用众所周知的奥卡姆剃刀(Occams razor)或节俭原则(principle of parsimony)一致。奥卡姆剃刀:给定两个具有相同泛化误差的模型

14、,较简单的模型比较复杂的模型更可取。悲观误差评估:第一种方法明确使用训练误差与模型复杂度罚项(penalty term)的和计算泛化误差。结果泛化误差可以看作模型的悲观误差估计(pessimistic error estimate)。例如,设 n(t)是结点 t 分类的训练记录数,e(t)是被误分类的记录数。决策树 T的悲观误差估计 可以用下式计算:其中,k是决策树的结点数,e(T)是决策树的总训练误差,是训练记录数,是每个结点 对应的罚项。最小描述长度原则:另一种结合模型复杂度的方法是基于称作最小描述长度(minimum description length,MDL)原则的信息论方法。为了解

15、释说明该原则,考虑下图中的例子。在该例中,A和 B都是已知属性 x 值得给定记录集。另外,A知道每个记录的确切类标号,而 B却不知道这些信息。B可以通过要求 A顺序传送类标号而获得每个记录的分类。一条消息需要(n)比特的信息,其中 n是记录总数。另一种可能,A决定建立一个分类模型,概括 x 和 y之间的关系。在传递给 B前,模型用压缩形式编码。如果模型的准确率是 100%,那么传输的代价就等于模型编码的代价。否则,A还必须传输哪些数据被模型错误分类信息。传输的总代价是:其中,等式右边的第一项是模型编码的开销,而第二项是误分类记录编码的开销。根据 MDL原则,我们寻找最小化开销函数的模型。3.估

16、计统计上界 泛化误差也可以用训练误差的统计修正来估计。因为泛化误差倾向于比训练误差大,所以统计修正通常是计算训练误差的上界。具体计算和证明会涉及到概率论和数理统计的知识。4.使用确认集 在该方法中,我们把原始的训练数据集分为两个较小的子集,一个自己用于训练,而另一个称作确认集,用于估计泛化误差。该方法通常用于参数控制获得具有不同复杂度模型的分类技术。通过调整学习算法中的参数(如决策树剪枝的程度),直到学习算法产生的模型在确认集上达到最低的错误率,可以估计最佳模型的复杂度。虽然该方法为评估模型在未知样本上的性能提供了较好的办法,但用于训练的记录减少了。处理决策树中的过拟合处理决策树中的过拟合 先

17、剪枝(提前终止规则):树增长算法在产生完全拟合整个训练数据集的完全增长的决策树之前就停止决策树的生长。这种方法的优点在于避免产生过分拟合训练数据的过于复杂的子树,然而,很难为提前终止选取正确的阈值。阈值太高将导致拟合不足的模型,而阈值太低就不能充分地解决过分拟合的问题。此外,即便使用已有的属性测试条件得不到显著的增益,接下来的划分也可能产生较好的子树。后剪枝:在该方法中,初始决策树按照最大规模生长,然后进行剪枝的步骤,按照自底向上的方式修剪完全增长的决策树。修剪的方法有两种:1.用新的叶结点替换子树,该叶结点的类标号有子树下记录中的多数类决定。2.用子树中最常使用的分支代替子树(常见的有子树提

18、升(subtree raising)和子树替换(subtree replacement)。当模型不能改进时,终止剪枝步骤。分类器性能评估和比较分类器性能评估和比较 分类器性能评估分类器性能评估 保持方法(holdout):将被标记的原始数据分成两个不相交的集合,分别称为训练集和检验集。在训练数据集上归纳分类模型,在检验集上评估模型的性能。两者的比例通常是 1:1 或 1:2。保持方法的局限性:第一,用于训练的被标记样本较少;第二,模型可能高度依赖于训练集和检验集的组成;最后,训练集和检验集不再是互相独立的。因为训练集和检验集源于同一个数据集,在一个子集中超出比例的类在另一个子集就低于比例,反之

19、亦然。随机二次抽样(random subsampling):多次重复保持方法来改进对分类器性能的估计,这种方法称作随机二次抽样。设 是第 i 次迭代的模型准确率,总准确率是 随机二次抽样也会遇到一些与保持方法同样的问题。交叉验证(cross-validation):在方法中,每个记录用于训练的次数相同,并且恰好检验一次。K折交叉检验定义如下:把数据分为大小相同的 k份,在每次运行,选择其中一份作为检验集,而其余的作为训练集,该过程重复 k 次,使得每份数据都用于检验恰好一次。总误差是所有 k次运行的误差之和。留一(leave-one-out)方法是 k折交叉检验的特殊情况,即每个检验集只有一个

20、记录。注意:以上三种方法中,训练记录采取的都是不放回抽样。自助法(bootstrap):自助方法中,训练记录采用有放回抽样。如果原始数据有 N个记录,可以证明,平均来说,大小为 N的自助样本大约包含原始数据中 63.2%的记录。没有抽中的记录成为检验集的一部分,将训练集建立的模型应用到检验集上,得到资助样本准确率的一个估计。抽样过程重复 b 次,产生 b 个自助样本。按照如何计算分类器的总准确率,有几种不同的自助抽样方法。常用的方法之一是.632自助(.632 bootstrap),它通过组合每个自助样本的准确率()和由包含所有标记样本的训练集计算的准确率()计算总准确率():分类器性能比较分

21、类器性能比较 为了更好地解释分类器性能比较问题,考虑一对分类模型 和。假设 在包含 30个记录的检验集上的准确率达到 85%,而 在包含 5000个记录的不同检验集上达到 75%的准确率。比较 A和 B涉及性能度量的统计显著性的两个关键问题。1.尽管 A的准确率比 B高,但它的检验集较小。A的准确率的置信程度有多高?2.可以把准确率的差解释为检验集的复合的变差吗?估计准确度的置信区间 为确定置信区间,需要建立支配准确率度量的概率分布。书中介绍了一种通过将分类任务用二项式实验建模来推导置信区间的方法。对应内容在数据挖掘导论(完整版)P116&P1174.6.1 节。阅读过程需要一定的概率论与数理

22、统计基础。比较两个模型的性能 考虑一对模型 M1 和 M2,它们在两个独立的检验集 D1和 D2上进行评估,令 n1是 D1中的记录数,n2 是 D2的记录数。另外,假设 M1在 D1上的错误率为 e1,M2在 D2上的错误率为 e2。目标是检验 e1与 e2 的观察差是否是统计显著的。假设 n1和 n2 都充分大,e1和 e2可以使用正态分布来近似。如果用 d=e1-e2表示错误率的观察差,则 d 服从均值为(其实际差)、方差 的正态分布。d是方差为:其中 e1(1-e1)/n1和 e2(1-e2)/n2表示错误率的方差。最后,在置信水平(1-)%下,可以证明实际差 的置信区间由下式给出:在书中的 P117&P1184.6.2 节中给出了一个计算的实例,值得参考和理解。第五章第五章 分类的其他技术分类的其他技术 5.1 基于规则的分类器基于规则的分类器 5.2 最近邻分类器最近邻分类器 5.3 贝叶斯分类器贝叶斯分类器 5.3.1 朴素贝叶斯分类器朴素贝叶斯分类器(朴素二字体现在其属性条件的独立性)5.3.2 贝叶斯信念网络贝叶斯信念网络(当条件独立不成立时,而是允许指定哪些条件独立时的情况,这个模型不太明白怎么实现的不太明白其原理)5.4.人工神经网络人工神经网络 5.5 支持向量机支持向量机 5.6组合方法

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1