spark习题

Posted Super_Orco

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark习题相关的知识,希望对你有一定的参考价值。

1、如何创建一个分区为2的RDD:

  创建一个RDD,分区为2,即对list进行并行化,并行度为2

scala> val rdd = sc.parallelize(List(1,2,3),2)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24

  或者启动10个map Task进行处理,对10个分区都进行map处理

val slices = 10
val n = 100000 * slices
val count = sc.parallelize(1 to n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)

 

2、将一个有两个分区的RDD收集起来

scala> rdd.collect
res3: Array[Int] = Array(1, 2, 3) 

3、得到这个rdd的分区数

scala> rdd.partitions.size
res4: Int = 2

4、想要看每个分区结果

  用glom,glom是将一个RDD的每一个分区都变成Array

scala> rdd.glom.collect
res5: Array[Array[Int]] = Array(Array(1), Array(2, 3))

 

以上是关于spark习题的主要内容,如果未能解决你的问题,请参考以下文章

使用 phpunit.xml、.env.dusk.local 和 sqlite 内存数据库设置 Laravel 5.4 和 Dusk

作曲家需要 laravel/dusk 错误

rkyv(archive)——Dusk network赞助的ZKP研究项目

带有laravel Dusk的测试案例,显示错误'users_email_unique'

Laravel dusk 安装 ChromeDriver 出错的解决办法

Dusk Network DayBreak测试网初体验