spark习题
Posted Super_Orco
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark习题相关的知识,希望对你有一定的参考价值。
1、如何创建一个分区为2的RDD:
创建一个RDD,分区为2,即对list进行并行化,并行度为2
scala> val rdd = sc.parallelize(List(1,2,3),2) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24
或者启动10个map Task进行处理,对10个分区都进行map处理
val slices = 10 val n = 100000 * slices val count = sc.parallelize(1 to n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce(_ + _)
2、将一个有两个分区的RDD收集起来
scala> rdd.collect res3: Array[Int] = Array(1, 2, 3)
3、得到这个rdd的分区数
scala> rdd.partitions.size res4: Int = 2
4、想要看每个分区结果
用glom,glom是将一个RDD的每一个分区都变成Array
scala> rdd.glom.collect res5: Array[Array[Int]] = Array(Array(1), Array(2, 3))
以上是关于spark习题的主要内容,如果未能解决你的问题,请参考以下文章
spark关于join后有重复列的问题(org.apache.spark.sql.AnalysisException: Reference '*' is ambiguous)(代码片段