[Spark][Python]RDD flatMap 操作例子

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[Spark][Python]RDD flatMap 操作例子相关的知识,希望对你有一定的参考价值。

RDD flatMap 操作例子:

flatMap,对原RDD的每个元素(行)执行函数操作,然后把每行都“拍扁”

[[email protected] ~]$ hdfs dfs -put cats.txt
[[email protected] ~]$ hdfs dfa -cat cats.txt
Error: Could not find or load main class dfa
[[email protected] ~]$ hdfs dfs -cat cats.txt
The cat on the mat
The aardvark sat on the sofa


mydata=sc.textFile("cats.txt")

mydata.count()
Out[14]: 2

mydata.take(2)
Out[15]: [u‘The cat on the mat‘, u‘The aardvark sat on the sofa‘]


myflatdata=mydata.flatMap(lambda line: line.split(‘ ‘))
myflatdta.count()
Out[19]: 11

myflatdata.take(2)
Out[20]: [u‘The‘, u‘cat‘]

myflatdata.take(11)
Out[21]:
[u‘The‘,
u‘cat‘,
u‘on‘,
u‘the‘,
u‘mat‘,
u‘The‘,
u‘aardvark‘,
u‘sat‘,
u‘on‘,
u‘the‘,
u‘sofa‘]

 

以上是关于[Spark][Python]RDD flatMap 操作例子的主要内容,如果未能解决你的问题,请参考以下文章

[Spark][Python][DataFrame][RDD]从DataFrame得到RDD的例子

如何在spark(Python)中将两个rdd组合成on rdd

在 Python 中创建自定义 Spark RDD

[Spark][python]RDD的collect 作用是什么?

来自现有 RDD 的数据框 - Python Spark

Spark(Python) 从内存中建立 RDD 的例子