RDD编程

Posted cyoutetsu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RDD编程相关的知识,希望对你有一定的参考价值。

1.RDD基础

弹性分布式数据集,简称RDD,是一个不可变的分布式对象集合。在Spark中,对数据的所有操作不外乎创建RDD,转化已有RDD以及调用RDD操作进行求值。

每一个RDD都被分为多个分区,这些分区运行在集群中的不同节点上,RDD可以包含Python,Java,Scala中任意类型的对象,甚至可以包含用户自定义对象。

用户可以使用两种方法创建RDD:读取一个外部数据集,或者在驱动程序里分发驱动器程序中的对象集合。

创建出来以后,RDD支持两种类型的操作:转化操作和行动操作。转化操作和行动操作的区别在于Spark计算RDD的方式不同,虽然你可以在任何时候定义新的RDD,但是Spark只会惰性计算这些RDD,他们只有在第一次在一个行动操作中用到时,才会真正计算。

转化操作返回的是RDD,而行动操作返回的是其他的数据类型。

在实际操作中,你会经常用到persist来把数据的一部分读取到内存中,并反复查询这部分数据。

pythonlines.persist()

总的来说,每个Spark程序或shell挥霍都按如下方式工作:

1.从外部数据创建出输入RDD;

2.使用诸如filter()这样的转化操作对RDD进行转化,以定义新的RDD;

3.告诉Spark对需要被重用的中间结果RDD执行persist操作;

4.使用行动操作来触发一次并行计算,Spark会对计算进行优化后再执行

 

2. 创建RDD

把程序中一个已有的集合传给SparkContext的parallelize方法。

lines = sc.parallelize(["pandas", "i like pandas"])

或者从外部创建RDD:

lines = sc.textFile("/path/to/README.md")

 

3. RDD操作

3.1 转化操作

RDD的转化操作是返回新的RDD的操作,转化出来的RDD是惰性求值的,只有在行动操作中用到这些RDD时才会被计算。

filter转化操作:

1 inputRDD = sc.textFile("log.txt")
2 errorsRDD = inputRDD.filter(lambda x: "error" in x)

filter操作不会改变已有的inputRDD中的数据,实际上,该操作会返回一个全新的RDD,inputRDD在后面的程序中还可以继续使用。

还有另一个转化操作union来打印出包含error或warning的行数:

1 errorsRDD = inputRDD.filter(lambda x: "error" in x)
2 warningRDD = inputRDD.filter(lambda x: "warning" in x)
3 badlinesRDD = errorsRDD.union(warningRDD)

由此可见,转化操作对于RDD数量是没有限制的。

3.2 行动操作

我们用count来返回计数结果,用take来收集RDD中的一些元素:

1 print "Input had" + badlinesRDD.count() + "concerning lines"
2 print "Here are 10 examples:"
3 for line in badLinesRDD.take(10):
4     print line

我们也可以用collect函数来获取整个RDD中的数据,但是这个函数一般不能用在大规模的数据上。

3.3 惰性求值

惰性求值意味着RDD在被调用行动操作之前Spark不会开始计算。当我们对RDD进行转化操作时,操作不会立即执行,想法Spark会在内部记录下所有要求执行的操作的相关信息。

3.4 向Spark传递数据(Python)

传递较短的函数时,可以使用lambda表达式来传递,

word = rdd.filter(lambda s: "error" in s)
def containsError(s):
    return "error" in s
word = rdd.filter(containsError)

3.5 常见的转化操作和行动操作

3.5.1针对各个元素的转化操作

转化操作map接收一个函数,把这个函数用于RDD中的每一个元素,将函数的返回结果作为结果RDD中对应元素的值。map的返回值类型不需要和输入类型一样。

nums = sc.parallelize([1,2,3,4])
squared = nums.map(lambda x: x*x).collcet()
for num in squared:
    print "%i" % (num)

如果我们希望对每一个输入元素生成多个输出元素,实现该功能的操作叫做flatMap。

lines = sc.parallelize(["hello world", "hi"])
words = lines.flatMap(lambda line: line.split(" "))
words.first() #返回"hello"

flatMap返回的是由各个列表中的元素组成的RDD,而不是一个由列表组成的RDD。

3.5.2伪集合操作

一个数据对{1,2,3,4}的RDD进行基本的RDD转化操作

map()                #将函数应用于RDD中的每个元素,将返回值构成新的RDD
flatMap()            #将函数应用于RDD中的每个元素,将返回的迭代器的所有内容构成新的RDD
filter()             #返回一个由通过传给filter的函数的元素组成的RDD
distinct()           #去重
sample()             #对RDD采样,以及是否替换
union()              #生成一个包含两个RDD钟所有元素的RDD
intersection()       #求两个RDD共同的元素的RDD
subtract()           #移除一个RDD中的内容
cartestian()         #与另一个RDD的笛卡尔积

3.5.3行动操作

reduce函数的作用是接收一个函数作为参数,这个函数要操作两个相同元素类型的RDD数据病返回一个同样类型的新元素。

sum = rdd.reduce(lambda x,y: x+y)

 

3.6持久化(缓存)

RDD是惰性求值的,当我们希望能够多次使用同一个RDD的时候,如果简单地对RDD调用行动操作,Spark每次都会重算RDD以及它的所有依赖。这在迭代算法中消耗格外的大,因为迭代算法常常会多次使用同一组数据。为了避免这种多次计算,可以让Spark对数据进行持久化。

当我们让Spark持久化储存一个RDD时,计算出RDD的节点会分别保存它们所求出的分区数据。出于不同的目的,我们可以为RDD选择不同的持久化的级别。在Python中,我们会始终序列化要持久化储存的数据,所以持久化级别默认值就是以序列化后的对象在JVM维空间中

以上是关于RDD编程的主要内容,如果未能解决你的问题,请参考以下文章

数据框架到RDD这段代码无法工作。

spark 深入学习 05RDD编程之旅基础篇02-Spaek shell

VSCode自定义代码片段——JS中的面向对象编程

VSCode自定义代码片段9——JS中的面向对象编程

大数据技术之_19_Spark学习_02_Spark Core 应用解析+ RDD 概念 + RDD 编程 + 键值对 RDD + 数据读取与保存主要方式 + RDD 编程进阶 + Spark Cor

3.7 Spark RDD编程