ImageVerifierCode 换一换
格式:DOCX , 页数:20 ,大小:289.27KB ,
资源ID:4761134      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/4761134.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(广工数据挖掘复习要点.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

广工数据挖掘复习要点.docx

1、广工数据挖掘复习要点广工数据挖掘复习要点第一章 绪论1.数据挖掘要解决的问题:面对高维,复杂,异构的海量数据,如何集中获取有用的信息和知识。2.数据挖掘定义:技术层面上:数据挖掘就是从大量数据提取有用信息的过程;商业层面上:数据挖掘就是对大量业务数据进行抽取,转换和分析以及建模处理,从 中提取辅助商业决策的关键性数据。3.数据挖掘的特征:先前未知,有效和实用。4.数据挖掘对象:关系数据库(借助集合代数等概念和方法来处理数据库中的数据)数据仓库(数据集合,用于支持管理决策)事务数据库(每个记录代表一个事务)空间数据库事态数据库和时间序列数据库流数据多媒体数据库文本数据库万维数据库5.数据挖掘任务

2、:分类分析(按照某种规则),聚类分析(具有共性),回归分析,关联分析(具有关联规则),离群点检测(发现与众不同的数据),演化分析(随时间变化的数据对象的趋势),序列模式挖掘(分析前后序列模式)6.数据挖掘过程:数据清洗,数据集成(考虑数据一致性和冗余),数据选择,数据转换,数据挖掘,模式评估,知识表示。例题:1.1 数据挖掘处理的对象有哪些?请从实际生活中举出至少三种。答:数据挖掘处理的对象是某一专业领域中积累的数据,对象既可以来自社会科学,又可以来自自然科学产生的数据,还可以是卫星观测得到的数据。数据形式和结构也各不相同,可以是传统的关系数据库,可以是面向对象的高级数据库系统,也可以是面向特

3、殊应用的数据库,如空间数据库、时序数据库、文本数据库和多媒体数据库等,还可以是Web 数据信息。实际生活的例子:电信行业中利用数据挖掘技术进行客户行为象,数据类型:标称属性,序数属性,区间属性,比率属性。2.数据集分为三类:记录数据,基于图形的数据和有序的数据集。补充:数据统计特征:均值,中位数,中列数(数据集中最大和最小值的平均值),众数(出现频率最高的值),截断均值(指定010间的百分位数p,丢弃高端的和低端的(p/2)%的数据,然后按照计算均值那样计算)3.数据挖掘的效果直接受到数据源的影响。4.数据清理的目的:试图填充缺失数据,去除噪声并识别离群点,纠正数据中的不一致值。5.缺失值的处

4、理方法:(分析时)忽略元组,(分析时)忽略属性列,(估计缺失值)人工填写缺失数据,(估计缺失值)自动填充缺失数据。6.噪声平滑方法:分箱,聚类。7.数据聚合的目的:将两个或多个数据源中的数据,存放在一个一致的数据存储设备中。8.数据变换的内容:数据泛化(把学科分为理学和工学,忽略细节),规范化,特征构造(集中数据特征构造新的特征,减少特征维数),数据离散化(出现了熵计算)。9.数据归约:维度归约和特征变换:维度归约可以删除不相关的特征并降低噪声,降低维度灾难风 险,降低数据挖掘的时间复杂度和空间复杂度,特征变幻可以反应出数据的不同视角 的不同特征。抽样:长期用于数据的事先调查和最终的数据分析,

5、在数据挖掘中,抽样是选择数据 子集进行分析的常用方法。1)无放回的简单随机抽样方法2)有放回的简单随机抽样方法3)分层抽样方法特征选择:从一组已知特征的集合中选取最具有代表性的特征子集,使其保留原有 数据的大部分特征,正确区分数据集中的每个数据对象。根据特征选择过程与后续 数据挖掘任务的关联可分为三种方法:过滤,封装和嵌入。根据是否用到类信息的指导, 分为监督式,无监督式和半监督式特征选择特征子集选择的搜索策略:逐步向前选择(从空集开始,逐步添加),逐步向 后删除(从整个属性集开始,逐个删除),向前选择和向后删除相结合,决策树归约。 特征搜索过程中不可缺少的环节就是逐步评估。数据预处理方法:数

6、据清理,数据集成,数据变换,数据归约,数据离散化例题:2.5 假定用于分析的数据包含属性age,数据元组中age 的值如下(按递增序):13,15,16,16,19,20,20,21,22,22,25,25,25,25,30,33,33,33,35,35,35,35,36,40,45,46,52,70。(a) 使用按箱平均值平滑对以上数据进行平滑,箱的深度为3。解释你的步骤。评论对于给定的数据,该技术的效果。 (b) 对于数据平滑,还有哪些其它方法? 答:(a)已知数据元组中age 的值如下(按递增序):13,15,16,16,19,20,20,21,22,22,25,25,25,25,30,

7、33,33,33,35,35,35,35,36,40,45,46,52,70,且箱的深度为3,划分为(等频)箱:箱1:13,15,16箱2:16,19,20箱3:20,21,22箱4:22,25,25箱5:25,25,30箱6:33,33,33箱7:35,35,35箱8:35,36,40箱9:45,46,52箱10:70用箱均值光滑:箱1:15,15,15箱2:18,18,18箱3:21,21,21箱4:24,24,24箱5:27,27,37箱6:33,33,33箱7:35,35,35箱8:37,37,37箱9:48,48,48箱10:70;(b)对于数据平滑,其它方法有:(1)回归:可以用一

8、个函数(如回归函数)拟合数据来光滑数据;(2)聚类:可以通过聚类检测离群点,将类似的值组织成群或簇。直观地,落在簇集合 之外的值视为离群点。2.6 使用习题2.5 给出的age数据,回答以下问题: (a) 使用min-max 规范化,将age 值35 转换到0.0,1.0区间。 (b) 使用z-score 规范化转换age 值35,其中,age 的标准偏差为12.94 年。 (c) 使用小数定标规范化转换age 值35。 (d) 指出对于给定的数据,你愿意使用哪种方法。陈述你的理由。 答:(a)已知最大值为70,最小值为13,则可将35规范化为:;(b)已知均值为30,标准差为12.94,则可

9、将35规范化为:;(c)使用小数定标规范化可将35规范化为:;2.17 给定两个向量对象,分别表示为p1(22,1,42,10),p2(20,0,36,8): (a) 计算两个对象之间的欧几里得距离 (b) 计算两个对象之间的曼哈顿距离 (c) 计算两个对象之间的闵可夫斯基距离,用x=3(d) 计算两个对象之间的切比雪夫距离答:(a) 计算两个对象之间的欧几里得距离(b) 计算两个对象之间的曼哈顿距离(c) 计算两个对象之间的闵可夫斯基距离,其中参数r=3(d)切比雪夫距离:=62.8以下是一个商场所销售商品的价格清单(按递增顺序排列,括号中的数表示前面数字出现次数)1(2)、5(5)、8(2

10、)、10(4)、12、14(3)、15(5)、18(8)、20(7)、21(4)、25(5)、28、30(3)。请分别用等宽的方法和等高的方法对上面的数据集进行划分。答:(1)等宽方法:划分为3个数据集,每个数据集的宽度为价格10。价格在110之间出现次数为13;价格在1120之间出现的次数为24;价格在2130之间出现的次数为13。(2)等高方法:划分为2个数据集,每个数据集的高度为出现的次数4。出现次数14之间的价格为1、8、10、12、14、21、28、30,共8个数据;出现次数58之间的价格为5、15、18、20、25,共5个数据。2.9 讨论数据聚合需要考虑的问题。 答:数据聚合需要

11、考虑的问题有:(1)模式识别:这主要是实体识别问题;(2)冗余:一个属性是冗余的,即它能由另一个表导出,如果属性或维的命名不一致,也可能导致冗余,可以用相关分析来检测;(3)数据值冲突的检测与处理:有些属性因表示比例或编码不同,会导致属性不同。第三章 分类与回归1.分类:分类是数据挖掘中的主要手段,其任务是对数据集进行学习并构造一个拥有预测功能的分类模型,用于预测未知样本的类标号,把类标号未知的样本映射到某个预先给定的类标号中。2.分类模型学习方法:基于决策树的分类方法,贝叶斯分类方法,k-最近邻分类方法,神经网络方法。3.决策树的概念与构建:决策树是一种树形结构,包括决策节点,分支节点和页节

12、点三个部分。决策节点:代表某个测试,通常对应带分类对象的某个属性。该属性上的不同测试结 果对应一个分支。叶节点:每个叶节点对应一个类标号,表示一种可能的分类结果。决策树的构建:1)属性的选择(很重要,一般要最大限度地增大样本集纯度)2)获得大小适合的决策树3)使用ID3等经典算法构建决策树4.分类模型的评价:分类过程一般分为两步:第一步是利用分类算法对训练集进行学习,建立分类模型;第二步是用分类模型对标号未知的测试数据进行分类。5.分类模型性能评价指标:(1)分类准确率:指模型正确地预测新的或先前未知的数据的类标号的能力。(影响分 类准确率的因素:训练数据集,记录的数目,属性的数目,属性中的信

13、息,测试数据集 记录的分布情况)(2)计算复杂度:决定着算法执行的速率和占用的资源,依赖于具体的实现细节和软、 硬件环境。(3)可解释性:分类结果只有可解释性好,容易理解,才能更好地用于决策支持。(4)可伸缩性。(5)稳定性:指不会随着数据的变化而发生剧烈变化。(6)强壮性:指数据集含有噪声和空缺值的情况下,分类器正确分类数据的能力。6.分类模型的误差:(1)训练误差和泛化误差。7.评估分类模型的性能的方法:(1)保持方法:以无放回抽样方式把数据集分为两个相互独立的子集,训练集(2/3) 和测试集(1/3);(2)随机子抽样:保持方法的多次迭代;(3)k-折交叉验证。例题:3.1考虑表3-23

14、所示二元分类问题的数据集。表3-23 习题3.4数据集AB类标号TF+TT+TT+TF-TT+FF-FF-FF-TT-TF-(1)计算按照属性A和B划分时的信息增益。决策树归纳算法将会选择那个属性?(2)计算按照属性A和B划分时Gini系数。决策树归纳算法将会选择那个属性?答:按照属性A和B划分时,数据集可分为如下两种情况:A=TA=F+40-33B=TB=F+31-15(1)划分前样本集的信息熵为 E=-0.4log20.4-0.6log20.6=0.9710按照属性A划分样本集分别得到的两个子集(A取值T和A取值F)的信息熵分别为: 按照属性A划分样本集得到的信息增益为:按照属性B划分样本

15、集分别得到的两个子集(B取值T和B取值F)的信息熵分别为: 按照属性B划分样本集得到的信息增益为:因此,决策树归纳算法将会选择属性A。(2) 划分前的Gini值为G=1-0.42-0.62=0.48按照属性A划分时Gini指标:Gini增益按照属性B划分时Gini指标:Gini增益因此,决策树归纳算法将会选择属性B。3.2考虑表3-24数据集,请完成以下问题:表3-24 习题3.7数据集记录号ABC类1000+2001-3011-4011-5001+6101+7101-8101-9111+10101+(1)估计条件概率,。(2)根据(1)中的条件概率,使用朴素贝叶斯方法预测测试样本(A=0,B

16、=1,C=0)的类标号;(3)使用Laplace估计方法,其中p=1/2,l=4,估计条件概率,。(4)同(2),使用(3)中的条件概率(5)比较估计概率的两种方法,哪一种更好,为什么?答:(1) =3/5=1/5=2/5=2/5=1(2) 假设P(A=0,B=1,C=0)=K则K属于两个类的概率为:P(+|A=0,B=1,C=0)=P(A=0,B=1,C=0|+)P(+)/K(贝叶斯算法)=P(A=0|+)P(B|+)P(C=0|+)P(+)/K=0.40.20.20.5/K=0.008/KP(-|A=0,B=1,C=0)=P(A=0,B=1,C=0|-)P(-)/K=P(A=0|-)P(B

17、|-)P(C=0|-)P(-)/K=0.40.200.5/K=0/K则得到,此样本的类标号是+。(3) P(A|+)=(3+2)/(5+4)=5/9P(A|-)=(2+2)/(5+4)=4/9P(B|+)=(1+2)/(5+4)=1/3P(B|-)=(2+2)/(5+4)=4/9P(C|-)=(0+2)/(5+4)=2/9(4) 假设P(A=0,B=1,C=0)=K则K属于两个类的概率为:P(+|A=0,B=1,C=0)=P(A=0,B=1,C=0)P(+)/K=P(A=0|+)P(B|+)P(C=0|+)P(+)/K=(4/9) (1/3) (1/3) 0.5/K=0.0247/KP(-|A

18、=0,B=1,C=0)=P(A=0,B=1,C=0)P(-)/K=P(A=0|-)P(B|-)P(C=0|-)P(-)/K=(5/9) (4/9) (2/9) 0.5/K=0.0274/K则得到,此样本的类标号是-。(5) 当条件概率为0的时候,条件概率的预测用Laplace估计方法比较好,因为我们不想整个条件概率计算结果为0.第四章 聚类分析1.聚类:聚类就是将数据集划分为由若干相似对象组成的多个组或簇的过程,使得同一组中的对象的相似度最大化,不同组中的相似度最小化。或者说聚类是由彼此相似的一组对象构成的集合。分类:分类是数据挖掘中的主要手段,其任务是对数据集进行学习并构造一个拥有预测功能的

19、分类模型,用于预测未知样本的类标号,把类标号未知的样本映射到某个预先给定的类标号中。记:聚类和分类的区别2.典型的聚类分析任务包括的步骤:1)模式表示(聚类算法的基础),2)适合于数据领域的模式相似性定义(是聚类分析最基本的问题),3)聚类或者划分算法(聚类分析的核心),4)数据摘要(如有必要),5)输出结果的评估,有效性的评估(如有必要)3.数据挖掘对聚类的典型要求:1)可伸缩性,2)处理不同类型属性的能力3)发现任意形状的聚类4)用于决定输入参数的领域知识最小化5)处理噪声数据的能力6)对输入记录的顺序不敏感7)高维度8)基于约束的聚类9)可解释性和可用性。4.典型聚类方法:1)划分方法(

20、每个划分表示一个聚类)2)层次方法(将数据对象组成一个聚类树)3)基于密度的方法(绝大多数划分方法都是基于对象之间的距离大小进行聚类)4)基于模型的方法(试图将给定数据与某个数学模型搭成最佳拟合)5)基于图的聚类算法(利用图的许多重要性质和特性)5.k-means算法,层次聚类算法的优缺点:(1)k-means算法:优点:算法描述容易,实现简单快速;不足:簇的个数要预先给 定,对初始值的依赖极大不适合大量数据的处理对噪声点和离群点很敏感很难 检测到“自然的”簇。(2)层次聚类算法:BIRCH算法:优点:利用聚类特征树概括了聚类的有用信息,节省内存空间; 具有对象数目呈线性关系,可伸缩性和较好的

21、聚类质量。不足:每个节 点只能 包含有限数目的条目,工作效率受簇的形状的影响大。CURE算法:优点:对孤立点的处理能力强;适用于大规模数据处理,伸缩性好, 没有牺牲聚类质量;缺点:算法在处理大量数据时必须基于抽样,划分等技术。 ROCK算法:优点:分类恰当,可采用随机抽样处理数据;缺点:最坏的情况下 时间复杂度级数大。基于密度的聚类算法:可识别具有任意形状不同大小的簇,自动确定簇的数目,分 离簇和环境噪声,一次扫描即可完成聚类,使用空间索引时间复杂度为O(NlbN)例题:1.假设描述学生的信息包含属性:性别,籍贯,年龄。有两条记录p、q及两个簇C1、C2的信息如下,分别求出记录和簇彼此之间的距

22、离。(k-means算法的拓展)p=男,广州,18 q=女,深圳,20C1=男:25,女:5;广州:20,深圳:6,韶关:4;19C2=男:3,女:12;汕头:12,深圳:1,湛江:2;24解:按定义4-3,取x=1,得到的各距离如下:d(p,q)=1+1+20-18=4d(p,C1)=(1-25/30)+(1-20/30)+(19-18)=1.5d(p,C2)=(1-3/15)+(1-0/15)+(24-18)=7.8d(q,C1)=(1-5/30)+(1-6/30)+(20-19)=79/30d(q,C2)=(1-12/15)+(1-1/15)+(24-20)=77/15d(C1,C2)=

23、1-(25*3+5*12)/(30*15)+1-(6*1)/(30*15)+(24-19)=1003/1504.1 什么是聚类?简单描述如下的聚类方法:划分方法,层次方法,基于密度的方法,基于模型的方法。为每类方法给出例子。 答:聚类是将数据划分为相似对象组的过程,使得同一组中对象相似度最大而不同组中对象相似度最小。主要有以下几种类型方法:(1)划分方法给定一个有N个元组或者记录的数据集,分裂法将构造K个分组,每一个分组就代表一个聚类,Ke) = s(b,d,e)/s(b,d) = 0.2/0.2 = 1; c(e-b,d) =s(b,d,e)/s(e) = 0.2/0.8 = 0.25. 由于c(b,d-e)c(e-b,d),所以置信度不是一个对称的度量。 (c) 如果把每一个用户购买所有的所有商品作为一个购物篮,则 s(e) = 4/5 =0.8 ; s(b,d) = 5/5 = 1 ; s(b,d,e) = 4/5 = 0.8.(d) 利用c中结果计算关联规则b, de 和 eb, d

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1