ImageVerifierCode 换一换
格式:DOCX , 页数:17 ,大小:449.79KB ,
资源ID:3031590      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/3031590.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习与数据挖掘复习.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

机器学习与数据挖掘复习.docx

1、机器学习与数据挖掘复习机器学习与数据挖掘复习第一章:Introduction1. 什么是数据挖掘:数据挖掘时从大量的数据中取出令人感兴趣的知识(令人感兴趣的知识:有效地、新颖的、潜在有用的和最终可以理解的)。2. 数据挖掘的分类(从一般功能上的分类):a)描述型数据挖掘(模式):聚类,summarization,关联规则,序列发现。b)预测型数据挖掘(值):分类,回归,时间序列分析,预测。3. KDD(数据库中的知识发现)的概念:KDD是一个选择和提取数据的过程,它能自动地发现新的、精确的、有用的模式以及现实世界现象的模型。数据挖掘是KDD过程的一个主要的组成部分。4. 用数据挖掘解决实际问题

2、的大概步骤:a)对数据进行KDD过程的处理来获取知识。b)用知识指导行动。c)评估得到的结果:好的话就循环使用,不好的话分析、得到问题然后改进。5. KDD过程中的角色问题:6. 整个KDD过程:a)合并多个数据源的数据。b)对数据进行选择和预处理。c)进行数据挖掘过程得到模式或者模型。d)对模型进行解释和评价得到知识。第二章 数据和数据预处理1. 什么是数据:数据是数据对象和它的属性的集合。一个属性是一个对象的性质或特性。属性的集合描述了一个对象。2. 属性的类型:a)标称(nominal):它的值仅仅是不同的名字,只是提供足够的信息来区分对象。例如邮政编码、ID、性别。b)序数:序数属性的

3、值提供足够的信息确定对象的序。例如硬度、成绩、街道号码。c)区间:对于区间属性,值之间的差是有意义的,即存在测量单位。例如日历日期、温度。d)比率:对于比率变量,差和比率都是有意义的。例如绝对温度、年龄、质量、长度。3. 用值的个数描述属性:a)离散的:离散属性具有有限惑无限可数个值,这样的属性可以是分类的。b)连续的:连续属性是取实数值的属性。4. 非对称属性:对于非对称属性,出现非零属性值才是最重要的。5. 数据集的类型:a)记录型数据:每一个数据对象都是有固定数目的属性组成的。数据矩阵:如果一个数据集中的所有数据对象都具有相同的数值属性集,则数据对象可以看做是多维空间中的点,其中每个位代

4、表描述对象的一个不同属性。文档数据:每个文档看成是一个向量。事务数据:每一个事务涉及一个项的集合。b)图数据:可以表示数据对象间的关系或者是数据对象本身就是用图形表示。c)有序数据:属性在时间或者空间上有关系。时态数据:记录型数据的扩展,但是每个记录都有一个时间。序列数据:由数据构成的序列,没有时间,但表述了一个时间的先后顺序。时间序列数据:每个记录都是一个时间序列。空间数据:属性和空间位置有关。6. 噪声和离群点的区别:噪声是对原始值产生了修改;离群点是具有不同于数据集中其他大部分数据对象的特征的数据对象,或是相对于该属性的典型值不寻常的属性值。7. 如何处理噪声数据:a)分箱(binnin

5、g):分享方法通过考察数据的近邻来光滑有序数据的值。b)回归:可以用一个函数你和数据来光滑数据。c)聚类:将数据划分为不同的类,落在类之外的视为离群点。d)把计算机分析的结果让人检查看是否有问题。8. 数据预处理中的主要任务:a)数据清洗:填补缺值、去除噪声、解决数据不一致、解决冗余。b)数据集成:将不同数据源的数据放在一个地方。c)数据转换:平滑处理、数据聚合、数据泛化、归一化、属性特征构造。d)数据约减:减少数据量,但仍需从少量的数据中得到原有或接近原有的结果。e)数据离散化对给定连续值划分为若干小区间,每个区间用一个值表示。9. 相关分析两类方法:对于数值属性可以通过计算两属性之间的相关

6、系数。对于分类数据两属性之间的相关联系可以通过卡方来计算。10. 对数据归一化处理的三大类方法:a)最小-最大规范化:b)Z-score规范化:c)小数定标规范化:11. 属性约减的方法:a)回归:拟合函数。b)直方图:将数据划分为一定的区间,存储时只用存储其平均值。(等宽度、等深度、V-optimal:取最优化分、MaxDiff:根据值间距离来划分)。c)聚类:将数据聚为不同的类,存储类中最有代表性的数据,例如中心点。d)抽样:从数据中抽取一个样本,要能代表原来的数据。12. 数据离散化的方法:a)数值型:i.直方图:自上而下的划分。ii.聚类的分析。iii.基于熵的离散化。iv.卡方分析。

7、v.自然划分的方法。b)分类型数据:i.模式集。ii.属性集。iii.通过只可以得到层次的关系。iv.根据不同属性的取值自动生成。13. 计算二进制属性的相似性用SMC和Jaccard系数(也可以不用于二进制属性,也可用于连续和计数属性),Cosine相似性用来测文档和文档之间的距离。第三章 概念学习1. 概念的概念:a)概念是定义在一个大集合上的事物或对象的子集。b)概念是定义在一个大集合上的二值函数。2. 概念学习的概念:a)概念学习就是从数据里提取出此概念的定义。b)概念学习可看成从给定的数据(输入、输出)中拟合出一个二值函数。3. 概念学习的三种算法:a)Find-S:找到一个最具体的

8、假设i.把H中的每个h初始化成最具体的假设。ii.它对所有否定样本都不处理。iii.它保证能收敛到一个最具体的假设。iv.缺点:找到一个假设,但是并没有表示他是唯一的,有可能有其他假设存在; 不一定最具体的假设就是最好的; 不能适应噪声的问题; 假设不止一个,然而此算法只能找到一个。b)候选-删除算法:输出与训练样例一致的所有假设的集合。(使S更一般、使G更具体)。它也不适应噪声问题。c)列表后消除算法:列出所有的版本空间成员,然后把不合适的找出。他要先将所有的假设找出来,然而这并不都是可以实现的。第四章 决策树1. 决策数学系的概念:决策树学习是一个简单的逼近方法,学习一个离散型函数。学习函

9、数被用一个决策树来表示;同时,决策树能被描述为if-then规则。2. 决策树分类的基本步骤:a)从数据归纳产生出一棵树。b)用模型对新数据进行分类。3. 决策树学习过程:a)生成根节点:对每一个属性进行评估,得到一个最好的属性作为根。b)根属性有几个值就产生几个分支,将数据计划成若干部分。c)重复上述过程。4. 不纯度计算方法:a)Gini Index:b)Entropy:c)Classification error:5. 决策树优点:a)构造速度较快,节约。b)分类速度快。c)树小时容易解释。d)分类精度和别的方法差不多在一些简单的数据集上。6. 如何解决过拟合现象:a)预裁剪:在树充分长

10、成前停下来。停止的条件是所有的实例都被分为一个类,或者所有的属性值都相同。b)后裁剪:将树充分生成,再按自下而上的方法进行裁剪。若将子树裁剪后泛化的误差减小,则将子树裁去,将类标号出现最多的标号作为裁掉树后补上的叶子。7. 度量模型的方法:8. 性能评估的方法:a)Holdout:用2/3训练,1/3测试。b)随机二次抽样:多次重复Holdout方法来改进最分类器性能的评估。c)交叉验证:把数据分为大小相同的k份,在每次运行,选择其中一份作检验集,其余的全做为训练集,该过程重复k次,使得每份数据都用于检验恰好一次。d)分块抽样。e)带回放抽样:适用于数据集小的情况。9. ROC(接受者操作特征

11、曲线):曲线上的每一点代表每个分类器的性能。第五章 神经网络1. 神经网络适合具有下面特征的问题:a)实例是用很多“属性-值”对表示的。b)目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量。c)训练数据可能包含错误。d)可容忍长时间的训练。e)可能需要快速求出目标函数值。f)人类能否理解学到的目标函数是不重要的。2. 感知器:感知器以一个实数值向量作为输入,计算这些输出的线性组合,然后如果结果大于某个阈值就输出1,否则输出-1。我们可以把感知器看作是n维实例空间中的超平面决策面。3. 感知器网络的训练方法:a)感知器训练法则:从随机的权值开始,然后反复地应用这个感知器到

12、每个训练样例,只要它误分类样例就修改感知器的权值。重复这个过程,直到感知器正确分类所有的训练样例。法则如下: 在有限次使用感知器训练法则后,上面的训练过程会收敛到一个能正确分类所有训练样例的权向量,前提是训练样例线性可分,并且使用了充分小的。如果数据不是线性可分的,那么不能保证训练过程收敛。b)Delta法则:如果训练样本不是线性可分的,那么delta法则会收敛到目标概念的最佳近似。Delta规则的拟合精度是足够好的,他用梯度下降的方法在假设空间中找出一组能够最好的拟合训练样本的一组。梯度下降法则:随意给一组初始值,循环的修改初始值使误差E要足够小,他要在曲面上找一个下降方向最快的方向进行估计

13、。 c)这两个算法间的关键差异是感知器训练法则根据阈值化的感知器输出误差更新权值,然而Delta法则根据输入的非阈值化线性组合的误差来更新权值。4. 反向传播算法:用来学习由一系列确定的单元互连形成的多层网络的权值。它采用梯度下降方法试图最小化网络输出值和目标值之间的误差平方。先用样本数据训练神经网络时,它自动地将输出值与期望值进行比较,得到误差信号,再根据误差信号,从后向前调节个神经网络层神经元之间的连接强度,然后再进行运算,使误差减小,再将新的输出值与期望值进行比较,得到新的比先前小的误差信号,再根据较小的误差信号,从后向前重新调节各神经网络层神经元之间的连接强度,依此不断地多次进行,直到

14、误差满足要求为止。第六章 贝叶斯学习1. 贝叶斯学习方法的特征:a)观察到的每个训练样例可以增量的降低或升高某假设的估计概率。b)先验知识可以与观察数据一起决定假设的最终概率。c)贝叶斯方法可允许假设做出不确定性的预测。d)新的实例分类可由多个假设一起做出预测,用他们的概率来加权。e)即使在贝叶斯方法计算复杂度较高时,他们仍可作为一个最优的决策的标准衡量其他方法。2. 贝叶斯公式: 3. 极大后验假设MAP和极大似然度ML:考虑候选假设集合H并在其中寻找给定数据D是可能性最大的假设h。这样的具有最大可能性的假设被称为MAP假设。当H中每个假设有相同的先验概率时,最大后验假设就可以进一步化简为极

15、大似然假设:4. 贝叶斯最优分类器:分类通过合并所有假设的预测得到,用后验概率来加权。a)它将每一个假设都最大化它的结果。b)如果我们用了同样的假设空间和先验知识,则贝叶斯最优分类器比其他方法都好。c)对假设空间的表示要求不是很严格。d)问题:需要将所有假设空间加起来,若h很大,则计算量很大,因此算法开销比较大。5. 朴素贝叶斯分类器:朴素贝叶斯分类器应用的学习任务中,每个实例x可由属性值的合取描述,而目标函数f(x)从某有限集合V中取值。学习其被提供一系列关于目标函数的训练样例以及新实例,然后要求预测新实例的目标值。它基于一个简单的假定:在给定目标值时属性值之间相互条件独立。6. 贝叶斯信念网:贝叶斯信念网用有向环图的方式来表示一组随机变量之间的概率关系,他用更中立的态度进行分类。它还可以被看做是变量之间的因果关系图,用于推理和预测。实例:见课件。第七章 基于实例的学习1. 基于实例的学习:对训练样本不作处理,不构造模型,只是存

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1