ImageVerifierCode 换一换
格式:DOCX , 页数:9 ,大小:17.06KB ,
资源ID:21239980      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/21239980.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(南开大学20秋学期《大数据开发技术二》在线作业参考答案Word文档格式.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

南开大学20秋学期《大数据开发技术二》在线作业参考答案Word文档格式.docx

1、C.saveAsObjectFilesD.saveAsHadoopFilesD4.()是Spark的核心,提供底层框架及核心支持。A.Spark CoreB.Spark SQLC.Spark Streaming5.Spark中的每个RDD一般情况下是由()个分区组成的。A.0B.1C.多D.无数C6.RDD的()操作通常用来划分单词。A.filterB.unionC.flatmapD.mapPartitions7.图结构中如果任意两个顶点之间都存在边,那么称之为()。A.完全图B.有向完全图C.无向图D.简单图8.Spark GraphX中类Graph的aggregateMessages方法可

2、以()。A.收集邻居顶点的顶点Id和顶点属性B.收集邻居顶点的顶点IdC.向指定顶点发送信息并聚合信息D.将顶点信息更新到图中9.Spark中DataFrame的()方法是进行连接查询。A.whereB.joinC.limitD.apply10.以下哪个不是Scala的数据类型?()A.AnyRefB.AnythingC.NULLD.Nothing11.GraphX中()方法可以释放边缓存。A.cacheB.presistC.unpersistVerticesD.edges.unpersist12.()是Spark的数据挖掘算法库。13.在图结构中,每个元素都可以有()后继。A.至少一个B.零

3、个或多个C.一个D.零个14.以下哪个方法可以从外部存储中创建RDD?A.parallelizeB.makeRDDC.textFileD.loadFile15.Graph类中如果要根据分开存放的顶点数据和边数据创建图,应该用()方法。A.Graph(vertices,edges, defaultVertexAttr)B.Graph.fromEdges(RDDEdgeED, defaultValue)C.Graph.fromEdgeTuples(rawEdges: RDD(VertexId, VertexId), defaultValue)D.GraphLoader.edgeListFile(s

4、c,filename)16.Spark GraphX中类Graph的joinVertices方法可以()。17.Scala列表方法中返回所有元素,除了最后一个的方法是()。A.dropB.headC.filterD.init18.以下哪个函数可以对RDD进行排序?A.sortByB.filterC.distinctD.intersection19.递归函数意味着函数可以调用它()。A.其他函数B.主函数C.子函数D.自身20.Spark Streming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操

5、作。A.transB.reduceC.joinD.cogroup21.如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()。A.0,numPartitionsB.0,numPartitions-1C.1,numPartitions-1D.1,numPartitions22.图结构中如果任意两个顶点之间都存在有向边,那么称之为()。23.GraphX中VertexRDDVD继承自()。A.EdgeRDDB.RDDEdgeC.VertexRDDVDD.RDD(VertexId,VD)24.Scala列表方法中通过给定的方法将所有元素重新计算的方法是()。B.for

6、eachC.mapD.mkString25.图结构中如果无重复的边或者顶点到自身的边,那么称之为()。26.以下哪个方法可以从集合中创建RDD?AB27.Scala支持()。A.匿名函数B.高阶函数C.函数嵌套D.柯里化ABCD28.MapReudce不适合()任务。A.大数据计算B.迭代C.交互式D.离线分析BC29.Spark DataFrame中()方法可以获取若干行数据。A.firstC.takeD.collectABCD &30.MLBase包括()A.MllibB.MLIC.SparkRD.GraphX31.Spark中的RDD的说法正确的是()。A.弹性分布式数据集B.

7、是Spark中最基本的数据抽象C.代表一个可变的集合D.代表的集合里面的元素可并行计算ABD32.Spark Streaming能够处理来自()的数据。A.KafkaB.FlumeC.TwitterD.ZeroMQ33.Spark DataFrame中()方法可以获取所有数据。A.collectB.takeC.takeAsListD.collectAsListAD34.Scala中使用()方法来连接两个集合。A.appendB.+C.concatD.Set.+()BD35.Spark Streaming支持实时流式数据,包括()。A.Web服务器日志文件B.社交网络数据C.实时交易数据D.类似

8、Kafka的信息数据36.Spark Streming中DStream代表着一系列的持续的RDDs。A.正确B.错误37.RDD的sortBy函数包含参数numPartitions,该参数决定排序后的RDD的分区个数,默认排序后的分区个数和排序之前的个数相等,即为this.partitions.size。38.MLlib中Normalizer是一个转换器,它可以将多行向量输入转化为统一的形式。39.MLlib由一些通用的学习算法和工具组成,包括分类、回归、聚类、协同过滤、降维等,同时还包括底层的优化原语和高层的管道API。40.RDD的filter过滤会将返回值为true的过滤掉。41.用户可

9、以在Hadoop YARN上运行Spark。42.Scala中创建一个方法时经常用void表示该方法无返回值43.Scala Set(集合)是没有重复的对象集合,所有的元素都是唯一的。44.PairRDD中reduceByKey的功能是合并具有相同键的值,作用域是KeyValue类型的键值对,并且是只对每个Key的Value进行处理。45.RDD的flatMap操作是将函数应用于RDD之中的每一个元素,将返回的迭代器(数组、列表等)中的所有元素构成新的RDD。46.RDD的subtract用于用于将前一个RDD中在后一个RDD出现的元素删除。47.Spark Streaming中时间片也可称为批处理时间间隔(batch interval),时间片是人为地对数据进行定量的标准,作为拆分数据的依据,一个时间片的数据对应一个RDD实例。48.Spark在同一个应用中不能同时使用Spark SQL和Mllib。49.Scala中允许集成多个父类。50.Dstream提供了sort方法。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1