ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:98.47KB ,
资源ID:4141273      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/4141273.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(数据仓库与数据挖掘技术复习.docx)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

数据仓库与数据挖掘技术复习.docx

1、数据仓库与数据挖掘技术复习 文档编制序号:KK8UY-LL9IO69-TTO6M3-MTOL89-FTT688数据仓库与数据挖掘技术复习数据仓库与数据挖掘技术复习资料一、单项选择题1. 数据挖掘技术包括三个主要的部分 ( C ) A数据、模型、技术 B算法、技术、领域知识 C数据、建模能力、算法与技术 D建模能力、算法与技术、领域知识2.关于基本数据的元数据是指: ( D )A.基本元数据与数据源,数据仓库,数据集市和应用程序等结构相关的信息;B.基本元数据包括与企业相关的管理方面的数据和信息;C.基本元数据包括日志文件和简历执行处理的时序调度信息;D.基本元数据包括关于装载和更新处理,分析处

2、理以及管理方面的信息。3. 关于OLAP和OLTP的说法,下列不正确的是: ( A)AOLAP事务量大,但事务内容比较简单且重复率高BOLAP的最终数据来源与OLTP不一样COLTP面对的是决策人员和高层管理人员DOLTP以应用为核心,是应用驱动的4将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务( C )A. 频繁模式挖掘 B. 分类和预测 C. 数据预处理 D. 数据流挖掘5下面哪种不属于数据预处理的方法 ( D )A.变量代换 B.离散化 C. 聚集 D. 估计遗漏值 6. 在ID3 算法中信息增益是指( D ) A.信息的溢出程度 B.信息的增加效益C.熵增加的程度最

3、大 D.熵减少的程度最大7. 以下哪个算法是基于规则的分类器 ( A ) A. B. KNN C. Bayes D. ANN8. 以下哪项关于决策树的说法是错误的( C )A冗余属性不会对决策树的准确率造成不利的影响B子树可能在决策树中重复多次C决策树算法对于噪声的干扰非常敏感D寻找最佳决策树是NP完全问题9. 假设收入属性的最小与最大分别是10000和90000,现在想把当前值30000映射到区间0,1,若采用最大最小数据规范方法,计算结果是( A )A. B. D. 10. 在抽样方法中,当合适的样本容量很难确定时,可以使用的抽样方法是: ( D )A.有放回的简单随机抽样 B.无放回的简

4、单随机抽样C.分层抽样 D.渐进抽样11. 当不知道数据所带标签时,可以使用哪种技术促使带同类标签的数据与带其他标签的数据相分离( B) A. 分类 B.聚类 C. 关联分析 D. 隐马尔可夫链12. 设X=1,2,3是频繁项集,则可由X产生( C )个关联规则。 13.( C )将两个簇的邻近度定义为不同簇的所有点对的平均逐对邻近度,它是一种凝聚层次聚类技术。 AMIN(单链) BMAX(全链) C组平均 DWard方法14. 只有非零值才重要的二元属性被称作:( C )A.计数属性 B.离散属性C.非对称的二元属性 D.对称属性15. 在基本K均值算法里,当邻近度函数采用( A )的时候,

5、合适的质心是簇中各点的中位数。A.曼哈顿距离 B.平方欧几里德距离 C.余弦距离 散度16. 下面关于数据粒度的描述不正确的是: ( C )A. 粒度是指数据仓库小数据单元的详细程度和级别B. 数据越详细,粒度就越小,级别也就越高C. 数据综合度越高,粒度也就越大,级别也就越高D. 粒度的具体划分将直接影响数据仓库中的数据量以及查询质量17. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题( B ) A.聚类 B.关联规则发现 C.分类 D.自然语言处理18. OLAP技术的核心是: ( D )A.在线性 B.对用户的快速响应 C. 互操作性 D.多维

6、分析19下面哪种不属于数据预处理的方法 ( D )A.变量代换 B.离散化 C. 聚集 D.估计遗漏值 20. 假设12个销售价格记录组已经排序如下:5, 10, 11, 13, 15, 35, 50, 55, 72, 92, 204, 215 使用如下每种方法将它们划分成四个箱。等深划分时,15在第几个箱子内 ( B )A.第一个 B.第二个 C.第三个 D.第四个21. 上题中,等宽划分时(宽度为50),15又在哪个箱子里 ( A )A.第一个 B.第二个 C.第三个 D.第四个 22. 熵是为消除不确定性所需要获得的信息量,投掷均匀正六面体骰子的熵是: ( B ) 假设属性income的

7、最大最小值分别是12000元和98000元。利用最大最小规范化的方法将属性的值映射到0至1的范围内。对属性income的73600元将被转化为:( D ) 假定用于分析的数据包含属性age。数据元组中age的值如下(按递增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70, 问题:使用按箱平均值平滑方法对上述数据进行平滑,箱的深度为3。第二个箱子值为:( A )A. B. C. 给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示,则这两个对象之间的曼哈坦距离为:( ) 概

8、念分层图是( B )图。A.无向无环 B.有向无环 C.有向有环 D.无向有环27. 假设A为事件“产品合格”,B为“机器工作正常”,现给出以下概率:机器工作正常,生产产品合格的概率为P(A|B)=;机器不正常工作时,生产产品合格的概率为=;机器正常工作的概率,即P(B)=。已知生产了一个不合格品,机器不正常工作的概率,即是( )。 二、填空题1数据仓库是面向主题的、( 集成的 )、( 具有特性的 )、稳定的数据集合,用以支持经营管理中的决策制定过程。2OLAP的基本多维分析操作有(聚类 )、切片、切块以及( 旋转 )等。3.多维数据集通常采用 ( 星型 )或雪花型架构,以( 事实 )为中心,

9、连接多个( 维表 )。4.空缺值数据的处理方法主要有使用默认值、(属性平均值)、(同类样本平均值)和预测最可能的值等。5平均互信息等于( 信息 )熵减( 条件 )熵,表示不确定性的消除。6.神经网络的学习方式有3种:( 监督学习 )、( 非监督学习 )和再励学习(强化学习)。7.聚类分析的数据通常可分为区间标度变量、二元变量、( 标称变量 )、(比例标度变量)、序数型以及混合类型等。8数据立方体是数据的多维建模和表示,由维和事实组成。维就是涉及的( 属性 )、而事实是一个具体的( 数据)。9.数据预处理的主要内容(方法)包括( 数据清洗 )、( 数据变换 )、(数据集成)和数据归约等。10.关

10、联规则的经典算法包括( Apriori)算法和(FP_Growth)算法,其中( FP_Growth )算法的效率更高。11.非线性回归的模型有:直接换元法、(间接代换法)和( 非线性型)三种。12.人工神经网络的特点和优势主要表现在具有(自学习 )功能、具有(联系存储 )功能和具有高速寻找优化解的能力三个方面。13. ID3算法只能对描述属性为( 离散 )型属性的数据集构造决策树。14.按照对应的数据类型,Web挖掘可分为内容挖掘、( )和( )。神经网络由( 输入)、( 输出 )以及一或多个隐含结点组成。三、判断题1. 数据挖掘的目标不在于数据采集策略,而在于对于已经存在的数据进行模式的发

11、掘。 ( 对 )2. 模式为对数据集的全局性总结,它对整个测量空间的每一点做出描述;模型则对变量变化空间的一个有限区域做出描述。 ( 错)3. 数据仓库中间层OLAP服务器只能采用关系型OLAP。 ( 错)4. 特征提取技术并不依赖于特定的领域。 ( 错 )5. 定量属性可以是整数值或者是连续值。 ( 对)6. Web数据挖掘是通过数据库仲的一些属性来预测另一个属性,它在验证用户提出的假设过程中提取信息。 ( 错)7.贝叶斯法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。 ( 错)8. 给定由两次运行K均值产生的两个不同的簇集,误差的平方和

12、最大的那个应该被视为较优。 ( 错)。9. 如果规则不满足置信度阈值,则形成的规则一定也不满足置信度阈值,其中是X的子集。 ( 对)10.分类和回归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续数值。 ( 对)11.如果一个对象不强属于任何簇,那么该对象是基于聚类的离群点。 (对 )12. K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。 (错 )13. 数据挖掘的主要任务是从数据中发现潜在的规则,从而能更好的完成描述数据、预测数据等任务。 ( 对 )14. 离散属性总是具有有限个值。 ( 错 )15. 用于分类的离散化方法之间的根本区别在于是否使用类信息。

13、( 对 )16. 特征提取技术并不依赖于特定的领域。 ( 错 )17. 定量属性可以是整数值或者是连续值。 ( 对 )18. Web数据挖掘是通过数据库仲的一些属性来预测另一个属性,它在验证用户提出的假设过程中提取信息。 ( 错)19. 关联规则挖掘过程是发现满足最小支持度的所有项集代表的规则。(错 )20. 利用先验原理可以帮助减少频繁项集产生时需要探查的候选项个数。( 对)21. 具有较高的支持度的项集具有较高的置信度。 (错 )22. 聚类(clustering)是这样的过程:它找出描述并区分数据类或概念的模型(或函数),以便能够使用模型预测类标记未知的对象类。 (错 )23. 分类和回

14、归都可用于预测,分类的输出是离散的类别值,而回归的输出是连续数值。 ( 对)四、简答题1设某事务项集构成如表1所示,填空完成粗体字部分支持度和置信度的计算,保留1位小数。表1事务ID项集L2支持度%规则置信度%T1A,DA,BA=B50T2D,EA,CC=A60T3A,C,EA,DA=DT4A,B,D,EB,DB=D75T5A,B,CC,DC=D60T6A,B,DD,ED=ET7A,C,DT8C,D,ET9B,C,D2. 写出非对称二元变量相异度计算公式(即jaccard系数),并计算表2中各对象间的相异度。表2测试项目对 象test-1test-2test-3test-4test-5test

15、-6OBJ1YNPNNNOBJ2YNPNPNOBJ3NYNYNN解:Jaccard系数公式可描述为非对称二元相异度=取值不同的同位属性数/(单个元素的属性位数-同取0的位数)。,其中r表示对象i取值为1,对象j取值为0;s表示对象i取0值,对象j取1值,q表示对象i和j同取1值。 3.给定两个对象,分别用元组(22,1,42,10)和(20,0,36,8)表示(a)计算两个对象之间的欧几里德的距离;(b)计算两个对象之间的曼哈坦距离;(c)计算两个对象间的明考斯基距离,q3。解:(a)欧几里德距离:;(b)曼哈坦距离:;(c)明考斯基距离,q=3。五、分析题1. 已知某事务数据库如表3所示,请

16、采用FP-Growth算法绘制出FP-tree,要求画出绘制过程。表3:事务数据库TID项目列表T1I1,I2,I5T2I2,I3T3I2,I4T4I1,I2,I4T5I1,I4,I5T6I2,I3T7I3,I4T8I1,I2,I3,I5T9I1,I2,I3解:图:FP-tree2给定表4所示的训练数据,数据样本属性age,income,student和credit_rating描述。类标号属性buys_computer具有两个不同值(即Yes,No)。给定一个没有类标号的数据样本X=(age=”=30”,income=”medium”,student=”yes”,credit_rating=

17、”fair”),使用朴素贝叶斯分类预测这个数据样本的类标号。(10分)表4 数据库训练数据元组RIDageincomestudentCredit_ratingClass:buys_computer1=30highnofairNo240 mediumnofairYes540lowyesfairYes640lowyesexcellentNo73140lowyesexcellentYes8=30mediumnofairNo940mediumyesfairYes1140mediumnoexcellentNo解:(1)每个类的先验概率P(buys_computer=”Yes”)=9/14P(buys_c

18、omputer =”No”)=5/14(2)为计算P(X/Ci),i=1,2,计算下面的条件概率:P(age=”30”| buys_computer =”Yes”)=2/9P(age=”30”| buys_computer =”No”)=3/5P(income=”medium”| buys_computer =”Yes”)=4/9P(income=”medium”| buys_computer =”No”)=2/5P(student=”yes”| buys_computer =”Yes”)=6/9P(student=”yes”| buys_computer =”No”)=1/5P(credit

19、_rating=”fair”| buys_computer =”Yes”)=6/9P(credit_rating=”fair”| buys_computer =”No”)=2/5(3)总结:使用以上概率,可以得到:P(X| buys_computer =”yes”)=(2/9)*(4/9)*(6/9)*(6/9)=P(X| buys_computer =”No”)=(3/5)*(2/5)*(1/5)*(2/5)=P(X| buys_computer =”yes”)P(buys_computer =”yes”)=*(9/14)=P(X| buys_computer =”No”) P(buys_computer =”No”)=*(5/14)=因此,对于样本X,朴素贝叶斯分类预测buys_computer =”Yes”。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1