1、C.saveAsObjectFilesD.saveAsHadoopFilesD4.()是Spark的核心,提供底层框架及核心支持。A.Spark CoreB.Spark SQLC.Spark Streaming5.Spark中的每个RDD一般情况下是由()个分区组成的。A.0B.1C.多D.无数C6.RDD的()操作通常用来划分单词。A.filterB.unionC.flatmapD.mapPartitions7.图结构中如果任意两个顶点之间都存在边,那么称之为()。A.完全图B.有向完全图C.无向图D.简单图8.Spark GraphX中类Graph的aggregateMessages方法可
2、以()。A.收集邻居顶点的顶点Id和顶点属性B.收集邻居顶点的顶点IdC.向指定顶点发送信息并聚合信息D.将顶点信息更新到图中9.Spark中DataFrame的()方法是进行连接查询。A.whereB.joinC.limitD.apply10.以下哪个不是Scala的数据类型?()A.AnyRefB.AnythingC.NULLD.Nothing11.GraphX中()方法可以释放边缓存。A.cacheB.presistC.unpersistVerticesD.edges.unpersist12.()是Spark的数据挖掘算法库。13.在图结构中,每个元素都可以有()后继。A.至少一个B.零
3、个或多个C.一个D.零个14.以下哪个方法可以从外部存储中创建RDD?A.parallelizeB.makeRDDC.textFileD.loadFile15.Graph类中如果要根据分开存放的顶点数据和边数据创建图,应该用()方法。A.Graph(vertices,edges, defaultVertexAttr)B.Graph.fromEdges(RDDEdgeED, defaultValue)C.Graph.fromEdgeTuples(rawEdges: RDD(VertexId, VertexId), defaultValue)D.GraphLoader.edgeListFile(s
4、c,filename)16.Spark GraphX中类Graph的joinVertices方法可以()。17.Scala列表方法中返回所有元素,除了最后一个的方法是()。A.dropB.headC.filterD.init18.以下哪个函数可以对RDD进行排序?A.sortByB.filterC.distinctD.intersection19.递归函数意味着函数可以调用它()。A.其他函数B.主函数C.子函数D.自身20.Spark Streming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操
5、作。A.transB.reduceC.joinD.cogroup21.如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()。A.0,numPartitionsB.0,numPartitions-1C.1,numPartitions-1D.1,numPartitions22.图结构中如果任意两个顶点之间都存在有向边,那么称之为()。23.GraphX中VertexRDDVD继承自()。A.EdgeRDDB.RDDEdgeC.VertexRDDVDD.RDD(VertexId,VD)24.Scala列表方法中通过给定的方法将所有元素重新计算的方法是()。B.for
6、eachC.mapD.mkString25.图结构中如果无重复的边或者顶点到自身的边,那么称之为()。26.以下哪个方法可以从集合中创建RDD?AB27.Scala支持()。A.匿名函数B.高阶函数C.函数嵌套D.柯里化ABCD28.MapReudce不适合()任务。A.大数据计算B.迭代C.交互式D.离线分析BC29.Spark DataFrame中()方法可以获取若干行数据。A.firstC.takeD.collectABCD &30.MLBase包括()A.MllibB.MLIC.SparkRD.GraphX31.Spark中的RDD的说法正确的是()。A.弹性分布式数据集B.
7、是Spark中最基本的数据抽象C.代表一个可变的集合D.代表的集合里面的元素可并行计算ABD32.Spark Streaming能够处理来自()的数据。A.KafkaB.FlumeC.TwitterD.ZeroMQ33.Spark DataFrame中()方法可以获取所有数据。A.collectB.takeC.takeAsListD.collectAsListAD34.Scala中使用()方法来连接两个集合。A.appendB.+C.concatD.Set.+()BD35.Spark Streaming支持实时流式数据,包括()。A.Web服务器日志文件B.社交网络数据C.实时交易数据D.类似
8、Kafka的信息数据36.Spark Streming中DStream代表着一系列的持续的RDDs。A.正确B.错误37.RDD的sortBy函数包含参数numPartitions,该参数决定排序后的RDD的分区个数,默认排序后的分区个数和排序之前的个数相等,即为this.partitions.size。38.MLlib中Normalizer是一个转换器,它可以将多行向量输入转化为统一的形式。39.MLlib由一些通用的学习算法和工具组成,包括分类、回归、聚类、协同过滤、降维等,同时还包括底层的优化原语和高层的管道API。40.RDD的filter过滤会将返回值为true的过滤掉。41.用户可
9、以在Hadoop YARN上运行Spark。42.Scala中创建一个方法时经常用void表示该方法无返回值43.Scala Set(集合)是没有重复的对象集合,所有的元素都是唯一的。44.PairRDD中reduceByKey的功能是合并具有相同键的值,作用域是KeyValue类型的键值对,并且是只对每个Key的Value进行处理。45.RDD的flatMap操作是将函数应用于RDD之中的每一个元素,将返回的迭代器(数组、列表等)中的所有元素构成新的RDD。46.RDD的subtract用于用于将前一个RDD中在后一个RDD出现的元素删除。47.Spark Streaming中时间片也可称为批处理时间间隔(batch interval),时间片是人为地对数据进行定量的标准,作为拆分数据的依据,一个时间片的数据对应一个RDD实例。48.Spark在同一个应用中不能同时使用Spark SQL和Mllib。49.Scala中允许集成多个父类。50.Dstream提供了sort方法。
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1