[Spark][Python]RDD flatMap 操作例子
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[Spark][Python]RDD flatMap 操作例子相关的知识,希望对你有一定的参考价值。
RDD flatMap 操作例子:
flatMap,对原RDD的每个元素(行)执行函数操作,然后把每行都“拍扁”
[[email protected] ~]$ hdfs dfs -put cats.txt
[[email protected] ~]$ hdfs dfa -cat cats.txt
Error: Could not find or load main class dfa
[[email protected] ~]$ hdfs dfs -cat cats.txt
The cat on the mat
The aardvark sat on the sofa
mydata=sc.textFile("cats.txt")
mydata.count()
Out[14]: 2
mydata.take(2)
Out[15]: [u‘The cat on the mat‘, u‘The aardvark sat on the sofa‘]
myflatdata=mydata.flatMap(lambda line: line.split(‘ ‘))
myflatdta.count()
Out[19]: 11
myflatdata.take(2)
Out[20]: [u‘The‘, u‘cat‘]
myflatdata.take(11)
Out[21]:
[u‘The‘,
u‘cat‘,
u‘on‘,
u‘the‘,
u‘mat‘,
u‘The‘,
u‘aardvark‘,
u‘sat‘,
u‘on‘,
u‘the‘,
u‘sofa‘]
以上是关于[Spark][Python]RDD flatMap 操作例子的主要内容,如果未能解决你的问题,请参考以下文章
[Spark][Python][DataFrame][RDD]从DataFrame得到RDD的例子
如何在spark(Python)中将两个rdd组合成on rdd