[南开大学]20春学期《大数据开发技术(二)》在线作业(【答案】100分)
作业答案 联系QQ:3326650399 微信:cs80188
答案来历:熊猫奥鹏(www.188open.com)-[南开大学]20春学期(1709、1803、1809、1903、1909、2003)《大数据开发技术(二)》在线作业
试卷总分:100 得分:100
第1题,在MLlib中,逻辑回归算法的输入值为()类型
A、Double
B、LabledPoint
C、Point
D、SGB
正确答案:
第2题,Scala列表方法中获取列表的榜首个元素的方法是()
A、drop
B、head
C、filter
D、init
正确答案:
第3题,spark-submit装备项中()表明每个executor运用的内核数
A、--num-executors NUM
B、--executor-memory MEM
C、--total-executor-cores NUM
D、--executor-coures NUM
正确答案
第4题,Spark Streming中()函数当被调用的两个DStream别离富含(K, V) 和(K, W)键值对时,回来一个(K, Seq[V], Seq[W])类型的新的DStream。
A、union
B、reduce
C、join
D、cogroup
正确答案:
答案来历:熊猫奥鹏(www.188open.com),PairRDD能够经过()取得仅包括键的RDD
A、key
B、keys
C、value
D、values
正确答案:
第6题,GraphX中()是完好供给边的各种操作类
A、RDD[Edge]
B、EdgeRDD
C、RDD[(VertexId,VD)]
D、VertexRDD
正确答案:
第7题,一般状况下,关于迭代次数较多的应用程序,Spark程序在内存中的运转速度是Hadoop MapReduce运转速度的()多倍
A、2
B、10
C、100
D、1000
正确答案:
第8题,MLlib 中能够调用mllib.tree.DecisionTree 类中的静态方法()练习分类树
A、trainClassifier
B、trainRegressor
C、LogisticRegressionModel
D、LabeledPoint
正确答案:
第9题,Scala中()方法回来Map一切的value
A、key
B、keys
C、value
D、values
正确答案
答案来历:熊猫奥鹏(www.188open.com),Spark Streming中DStream的每个RDD都是由()切割开来的数据集
A、分区
B、一小段时刻
C、数据量
D、随机
正确答案:
第11题,Dstream窗口操作中()方法根据滑动窗口对(K,V)键值对类型的DStream中的值按K运用聚合函数func进行聚合操作,得到一个新的Dstream
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案
答案来历:熊猫奥鹏(www.188open.com),Scala列表方法中输出符号指定条件的一切元素的方法是()
A、drop
B、head
C、filter
D、init
正确答案:
第13题,以下哪个不是Scala的数据类型()
A、Int
B、Short Int
C、Long
D、Any
正确答案:
第14题,当需求将一个普通的RDD转化为一个PairRDD时能够运用()函数来进行操作
A、transfer
B、change
C、map
D、build
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Dstream窗口操作中()方法回来一个根据源DStream的窗口批次计算后得到新的DStream。
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案:
第16题,Dstream窗口操作中()方法根据滑动窗口对源DStream中的元素进行聚合操作,得到一个新的Dstream
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案:
第17题,Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。
A、print
B、saveAsTextFiles
C、saveAsObjectFiles
D、saveAsHadoopFiles
正确答案:
第18题,假如numPartitions是分区个数,那么Spark每个RDD的分区ID规模是()
A、[0,numPartitions]
B、[0,numPartitions-1]
C、[1,numPartitions-1]
D、[1,numPartitions]
正确答案:
第19题,GraphX中graph.edges能够得到()
A、极点视图
B、边视图
C、极点与边的三元组全体视图
D、有向图
正确答案:
答案来历:熊猫奥鹏(www.188open.com),GraphX中()是寄存着寄存极点的RDD
A、RDD[Edge]
B、EdgeRDD
C、RDD[(VertexId,VD)]
D、VertexRDD
正确答案:
第21题,Scala中()方法回来一个列表,包括除了榜首个元素之外的其他元素
A、head
B、init
C、tail
D、last
正确答案:
第22题,请问RDD的()操作把RDD 一切元素变换成数组并回来到Driver 端
A、join
B、zip
C、combineByKey
D、collect
正确答案
第23题,Spark GraphX中类Graph的mapReduceTriplets方法能够()
A、搜集街坊极点的极点Id和极点特点
B、搜集街坊极点的极点Id
C、向指定极点发送信息并聚合信息
D、将极点信息更新到图中
正确答案:
第24题,Scala列表方法中经过给定的方法将一切元素从头计算的方法是()
A、filter
B、foreach
C、map
D、mkString
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Scala列表方法中回来一切元素,除了最终一个的方法是()
A、drop
B、head
C、filter
D、init
正确答案
第26题,Scala中能够用()方法来衔接两个或多个列表
A、::
B、#:::
C、List.::)
D、List.concat()
正确答案:,C,D
第27题,Spark DataFrame中()方法能够回来一个Array对象
A、collect
B、take
C、takeAsList
D、collectAsList
正确答案:,B
第28题,Scala系统撑持()作为对象成员
A、通用类
B、内部类
C、笼统类
D、复合类
正确答案:,B,C,D
第29题,Mllib完成了一些常见的机器学习算法和应用程序,包含()
A、分类
B、聚类
C、降维
D、回归
正确答案:,B,C,D
答案来历:熊猫奥鹏(www.188open.com),Spark Streaming可以和()无缝集成
A、Hadoop
B、Spark SQL
C、Mllib
D、GraphX
正确答案:,C,D
第31题,以下算法中归于分类算法的是()
A、KNN算法
B、逻辑回归
C、随机森林
D、Kmeans
正确答案:,B,C
第32题,Spark Core包括的功用有()
A、使命调度
B、内存管理
C、SQL查询
D、容错机制
正确答案:,B,D
第33题,Scala中结构列表的两个根本单位是 ()
A、Nil
B、Nill
C、::
D、List
正确答案:,C
第34题,Spark DataFrame中()方法能够回来一个List
A、collect
B、take
C、takeAsList
D、collectAsList
正确答案:,D
第35题,MLlib顶用于线性回归算法的包首要有()
A、LinearRegressionWithSGD
B、RidgeRegressionWithSGD
C、LassoWithSGD
D、LeftRegression
正确答案:,B,C
第36题,RDD的map操作不会改动RDD的分区数目
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第37题,MLlib中StandardScaler处理的对象是每一列,也即是每一维特征,将特征规范化为单位规范差或是0均值,或是0均值单位规范差。
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第38题,Scala中高阶函数常常将只需求履行屡次的函数界说为匿名函数作为参数
T、对
F、错
正确答案:F
第39题,Spark SQL只是包含根本的SQL语法
T、对
F、错
正确答案:F
第40题,聚类是一种无监督学习的方法,用于将高度类似的数据分到一类中
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第41题,MLlib由一些通用的学习算法和东西构成,包含分类、回归、聚类、协同过滤、降维等,一起还包含底层的优化原语和高层的管道API。
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第42题,Spark GraphX课经过mapVertices[VD2: ClassTag](map: (VertexId, VD) = VD2)完成对极点特点通过变换生成新的图
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第43题,Spark Streming中对DStream的任何操作都会转化成对底层RDDs的操作
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第44题,Scala中默许状况下运用的是可变的Map
T、对
F、错
正确答案:F
第45题,mllib.feature中存在一些常见的特征转化方法,首要包含创立特征向量和规范化数据
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第46题,Scala中答应集成多个父类
T、对
F、错
正确答案:F
第47题,RDD中combineByKey不答应回来类型与输入数据类型不一样的回来值
T、对
F、错
正确答案:F
第48题,Spark SQL可被视为一个散布式的SQL查询引擎,而且供给了一个叫做DataFrame的可编程笼统数据模型
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第49题,Spark GraphX课经过mapTriplets[ED2: ClassTag](map: EdgeTriplet[VD, ED] = ED2)
完成对边特点通过变换生成新的图
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
答案来历:熊猫奥鹏(www.188open.com),Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷是不包含函数式编程的特性。
T、对
F、错
正确答案:F
作业答案 联系QQ:3326650399 微信:cs80188
答案来历:熊猫奥鹏(www.188open.com)-[南开大学]20春学期(1709、1803、1809、1903、1909、2003)《大数据开发技术(二)》在线作业
试卷总分:100 得分:100
第1题,在MLlib中,逻辑回归算法的输入值为()类型
A、Double
B、LabledPoint
C、Point
D、SGB
正确答案:
第2题,Scala列表方法中获取列表的榜首个元素的方法是()
A、drop
B、head
C、filter
D、init
正确答案:
第3题,spark-submit装备项中()表明每个executor运用的内核数
A、--num-executors NUM
B、--executor-memory MEM
C、--total-executor-cores NUM
D、--executor-coures NUM
正确答案
第4题,Spark Streming中()函数当被调用的两个DStream别离富含(K, V) 和(K, W)键值对时,回来一个(K, Seq[V], Seq[W])类型的新的DStream。
A、union
B、reduce
C、join
D、cogroup
正确答案:
答案来历:熊猫奥鹏(www.188open.com),PairRDD能够经过()取得仅包括键的RDD
A、key
B、keys
C、value
D、values
正确答案:
第6题,GraphX中()是完好供给边的各种操作类
A、RDD[Edge]
B、EdgeRDD
C、RDD[(VertexId,VD)]
D、VertexRDD
正确答案:
第7题,一般状况下,关于迭代次数较多的应用程序,Spark程序在内存中的运转速度是Hadoop MapReduce运转速度的()多倍
A、2
B、10
C、100
D、1000
正确答案:
第8题,MLlib 中能够调用mllib.tree.DecisionTree 类中的静态方法()练习分类树
A、trainClassifier
B、trainRegressor
C、LogisticRegressionModel
D、LabeledPoint
正确答案:
第9题,Scala中()方法回来Map一切的value
A、key
B、keys
C、value
D、values
正确答案
答案来历:熊猫奥鹏(www.188open.com),Spark Streming中DStream的每个RDD都是由()切割开来的数据集
A、分区
B、一小段时刻
C、数据量
D、随机
正确答案:
第11题,Dstream窗口操作中()方法根据滑动窗口对(K,V)键值对类型的DStream中的值按K运用聚合函数func进行聚合操作,得到一个新的Dstream
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案
答案来历:熊猫奥鹏(www.188open.com),Scala列表方法中输出符号指定条件的一切元素的方法是()
A、drop
B、head
C、filter
D、init
正确答案:
第13题,以下哪个不是Scala的数据类型()
A、Int
B、Short Int
C、Long
D、Any
正确答案:
第14题,当需求将一个普通的RDD转化为一个PairRDD时能够运用()函数来进行操作
A、transfer
B、change
C、map
D、build
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Dstream窗口操作中()方法回来一个根据源DStream的窗口批次计算后得到新的DStream。
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案:
第16题,Dstream窗口操作中()方法根据滑动窗口对源DStream中的元素进行聚合操作,得到一个新的Dstream
A、window
B、countByWindow
C、reduceByWindow
D、reduceByKeyAndWindow
正确答案:
第17题,Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。
A、print
B、saveAsTextFiles
C、saveAsObjectFiles
D、saveAsHadoopFiles
正确答案:
第18题,假如numPartitions是分区个数,那么Spark每个RDD的分区ID规模是()
A、[0,numPartitions]
B、[0,numPartitions-1]
C、[1,numPartitions-1]
D、[1,numPartitions]
正确答案:
第19题,GraphX中graph.edges能够得到()
A、极点视图
B、边视图
C、极点与边的三元组全体视图
D、有向图
正确答案:
答案来历:熊猫奥鹏(www.188open.com),GraphX中()是寄存着寄存极点的RDD
A、RDD[Edge]
B、EdgeRDD
C、RDD[(VertexId,VD)]
D、VertexRDD
正确答案:
第21题,Scala中()方法回来一个列表,包括除了榜首个元素之外的其他元素
A、head
B、init
C、tail
D、last
正确答案:
第22题,请问RDD的()操作把RDD 一切元素变换成数组并回来到Driver 端
A、join
B、zip
C、combineByKey
D、collect
正确答案
第23题,Spark GraphX中类Graph的mapReduceTriplets方法能够()
A、搜集街坊极点的极点Id和极点特点
B、搜集街坊极点的极点Id
C、向指定极点发送信息并聚合信息
D、将极点信息更新到图中
正确答案:
第24题,Scala列表方法中经过给定的方法将一切元素从头计算的方法是()
A、filter
B、foreach
C、map
D、mkString
正确答案:
答案来历:熊猫奥鹏(www.188open.com),Scala列表方法中回来一切元素,除了最终一个的方法是()
A、drop
B、head
C、filter
D、init
正确答案
第26题,Scala中能够用()方法来衔接两个或多个列表
A、::
B、#:::
C、List.::)
D、List.concat()
正确答案:,C,D
第27题,Spark DataFrame中()方法能够回来一个Array对象
A、collect
B、take
C、takeAsList
D、collectAsList
正确答案:,B
第28题,Scala系统撑持()作为对象成员
A、通用类
B、内部类
C、笼统类
D、复合类
正确答案:,B,C,D
第29题,Mllib完成了一些常见的机器学习算法和应用程序,包含()
A、分类
B、聚类
C、降维
D、回归
正确答案:,B,C,D
答案来历:熊猫奥鹏(www.188open.com),Spark Streaming可以和()无缝集成
A、Hadoop
B、Spark SQL
C、Mllib
D、GraphX
正确答案:,C,D
第31题,以下算法中归于分类算法的是()
A、KNN算法
B、逻辑回归
C、随机森林
D、Kmeans
正确答案:,B,C
第32题,Spark Core包括的功用有()
A、使命调度
B、内存管理
C、SQL查询
D、容错机制
正确答案:,B,D
第33题,Scala中结构列表的两个根本单位是 ()
A、Nil
B、Nill
C、::
D、List
正确答案:,C
第34题,Spark DataFrame中()方法能够回来一个List
A、collect
B、take
C、takeAsList
D、collectAsList
正确答案:,D
第35题,MLlib顶用于线性回归算法的包首要有()
A、LinearRegressionWithSGD
B、RidgeRegressionWithSGD
C、LassoWithSGD
D、LeftRegression
正确答案:,B,C
第36题,RDD的map操作不会改动RDD的分区数目
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第37题,MLlib中StandardScaler处理的对象是每一列,也即是每一维特征,将特征规范化为单位规范差或是0均值,或是0均值单位规范差。
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第38题,Scala中高阶函数常常将只需求履行屡次的函数界说为匿名函数作为参数
T、对
F、错
正确答案:F
第39题,Spark SQL只是包含根本的SQL语法
T、对
F、错
正确答案:F
第40题,聚类是一种无监督学习的方法,用于将高度类似的数据分到一类中
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第41题,MLlib由一些通用的学习算法和东西构成,包含分类、回归、聚类、协同过滤、降维等,一起还包含底层的优化原语和高层的管道API。
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第42题,Spark GraphX课经过mapVertices[VD2: ClassTag](map: (VertexId, VD) = VD2)完成对极点特点通过变换生成新的图
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第43题,Spark Streming中对DStream的任何操作都会转化成对底层RDDs的操作
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第44题,Scala中默许状况下运用的是可变的Map
T、对
F、错
正确答案:F
第45题,mllib.feature中存在一些常见的特征转化方法,首要包含创立特征向量和规范化数据
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第46题,Scala中答应集成多个父类
T、对
F、错
正确答案:F
第47题,RDD中combineByKey不答应回来类型与输入数据类型不一样的回来值
T、对
F、错
正确答案:F
第48题,Spark SQL可被视为一个散布式的SQL查询引擎,而且供给了一个叫做DataFrame的可编程笼统数据模型
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
第49题,Spark GraphX课经过mapTriplets[ED2: ClassTag](map: EdgeTriplet[VD, ED] = ED2)
完成对边特点通过变换生成新的图
T、对
F、错
更多答案下载:熊猫奥鹏(www.188open.com)
答案来历:熊猫奥鹏(www.188open.com),Scala是Scalable Language的简写,是一门多范式的编程语言,设计初衷是不包含函数式编程的特性。
T、对
F、错
正确答案:F
作业答案 联系QQ:3326650399 微信:cs80188