1、奥鹏远程南开大学本部20春学期大数据开发技术二在线作业参考答案南开大学(奥鹏)网络教育大数据开发技术(二)在线作业参考资料20春学期(1709、1803、1809、1903、1909、2003)大数据开发技术(二)在线作业1. Spark中DataFrame的()方法是进行条件查询【选项】:A whereB joinC limitD apply【答案】:A2. Dstream输出操作中print方法在Driver中打印出DStream中数据的()元素。【选项】:A 第一个B 所有C 前10个D 前100个【答案】:3. Scala元组的值是通过将单个的值包含在()中构成的【选项】:A 小括号B
2、 中括号C 大括号D 尖括号【答案】:A4. 当需要将一个普通的RDD转化为一个PairRDD时可以使用()函数来进行操作【选项】:A transferB changeC mapD build【答案】:C5. 以下哪个函数可以求两个RDD交集 ()【选项】:A unionB substractC intersectionD cartesian【答案】:6. 以下哪个函数可以求两个RDD差集 ()【选项】:A unionB substractC intersectionD cartesian【答案】:B7. spark-submit配置项中()表示executor使用的总核数【选项】:A -nu
3、m-executors NUMB -executor-memory MEMC -total-executor-cores NUMD -executor-coures NUM【答案】:C8. GraphX中()方法可以释放顶点缓存【选项】:A cacheB presistC unpersistVerticesD edges.unpersist【答案】:9. 以下哪个方法可以从外部存储中创建RDD()【选项】:A parallelizeB makeRDDC textFileD loadFile【答案】:10. Scala可以使用()关键字实现单例模式【选项】:A objectB staticC p
4、rivateD public【答案】:A11. 以下哪个不是Scala的数据类型()【选项】:A IntB Short IntC LongD Any【答案】:B12. Mllib中metrics.precisionByThreshold表示()指标【选项】:A 准确度B 召回率C F值D ROC曲线【答案】:A13. 图的结构通常表示为:G(V,E),其中,E是图G中()【选项】:A 顶点B 顶点的集合C 边D 边的集合【答案】:14. 请问RDD的()操作用于将相同键的数据聚合【选项】:A joinB zipC combineByKeyD collect【答案】:15. Mllib中metr
5、ics.recallByThreshold表示()指标【选项】:A 准确度B 召回率C F值D ROC曲线【答案】:B16. GraphX中EdgeRDD继承自()【选项】:A EdgeRDDB RDDEdgeC VertexRDDVDD RDD(VertexId,VD)【答案】:B17. Dstream输出操作中()方法将DStream中的内容以文本的形式保存为文本文件【选项】:A printB saveAsTextFilesC saveAsObjectFilesD saveAsHadoopFiles【答案】:B18. GraphX中()方法可以查询顶点信息【选项】:A numVertice
6、sB numEdgesC verticesD edges【答案】:19. Scala通过()来定义变量【选项】:A valB valC defineD def【答案】:A20. Mllib中线性会馆算法中的参数reParam表示()【选项】:A 要运行的迭代次数B 梯度下降的步长C 是否给数据加干扰特征或者偏差特征D Lasso 和ridge 的正规化参数【答案】:21. Scala中()方法返回Map所有的value【选项】:A keyB keysC valueD values【答案】:D22. Scala列表方法中返回所有元素,除了最后一个的方法是()【选项】:A dropB headC
7、filterD init【答案】:D23. Spark Streming中()函数可以使用func将源DStream中的每个元素进行聚合操作,返回一个内部所包含的RDD只有一个元素的新DStream【选项】:A unionB reduceC joinD cogroup【答案】:B24. PairRDD可以通过()获得仅包含键的RDD【选项】:A keyB keysC valueD values【答案】:B25. Scala中()方法返回Map所有的key【选项】:A keyB keysC valueD values【答案】:B26. 以下哪个是Scala的数据类型()【选项】:A AnyB N
8、ULLC NothingD AnyRef【答案】:A.B.C.D27. 以下算法中属于分类算法的是()【选项】:A KNN算法B 逻辑回归C 随机森林D Kmeans【答案】:28. Spark的RDD持久化操作有()方式【选项】:A cacheB presistC storageD long【答案】:29. Spark Streaming的特点有()【选项】:A 单极性B 可伸缩C 高吞吐量D 容错能力强【答案】:B.C.D30. Spark Streaming能够和()无缝集成【选项】:A HadoopB Spark SQLC MllibD GraphX【答案】:B.C.D31. Scal
9、a系统支持()作为对象成员【选项】:A 通用类B 内部类C 抽象类D 复合类【答案】:A.B.C.D32. Scala中可以用()方法来连接两个或多个列表【选项】:A :B #:C List.:()D List.concat()【答案】:B.C.D33. Spark DataFrame中()方法可以返回一个List【选项】:A collectB takeC takeAsListD collectAsList【答案】:34. Spark DataFrame中()方法可以返回一个Array对象【选项】:A collectB takeC takeAsListD collectAsList【答案】:3
10、5. Spark可以通过哪些外部存储创建RDD()【选项】:A 文本文件B 目录C 压缩文件D 通配符匹配的文件【答案】:A.B.C.D36. Spark只有键值对类型的RDD才能设置分区方式【选项】:T 对F 错【答案】:A37. Scala中列表是可变的【选项】:T 对F 错【答案】:B38. RDD的转换操作是用于触发转换操作的操作,这个时候才会真正开始进行计算。【选项】:T 对F 错【答案】:B39. Spark取代Hadoop仅仅是取代MapReduce这种计算框架,Spark可以取代HDFS吗【选项】:T 对F 错【答案】:B40. Spark在同一个应用中不能同时使用Spark
11、SQL和Mllib【选项】:T 对F 错【答案】:B41. val如同Java里面的非final变量,可以在它的声明周期中被多次赋值。【选项】:T 对F 错【答案】:B42. Scala 配备了一种表现型的系统,它以静态的方式进行抽象,以安全和连贯的方式进行使用。【选项】:T 对F 错【答案】:A43. RDD的mapPartitions操作会导致Partitions数量的变化【选项】:T 对F 错【答案】:B44. RDD的flatMap操作是将函数应用于RDD 之中的每一个元素,将返回的迭代器(数组、列表等)中的所有元素构成新的RDD 。【选项】:T 对F 错【答案】:A45. RDD的s
12、ubtract用于用于将前一个RDD 中在后一个RDD 出现的元素删除【选项】:T 对F 错【答案】:A46. MLlib中StandardScaler处理的对象是每一列,也就是每一维特征,将特征标准化为单位标准差或是0均值,或是0均值单位标准差。【选项】:T 对F 错【答案】:A47. RDD的filter函数返回一个存储符合过滤条件的所有元素的新RDD【选项】:T 对F 错【答案】:A48. 用户可以在Apache Mesos上运行Spark【选项】:T 对F 错【答案】:A49. RDD中join操作根据键对两个RDD进行内连接,将两个RDD 中键相同的数据的值相加。【选项】:T 对F 错【答案】:B50. PairRDD中groupByKey是对具有相同键的值进行分组【选项】:T 对F 错【答案】:A
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1