Streaming执行Python版WordCount

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Streaming执行Python版WordCount相关的知识,希望对你有一定的参考价值。

一:先写map类

import sys
for line in sys.stdin:
line = line.strip( )
words = line.split( )
for word in words:
print(‘%s\t%s‘ % (word, 1))


二:写reduce类

import sys
current_word = None
current_count = 0
word = None
for line in sys.stdin:
line = line.strip()
word, count = line.split(‘\t‘,1)
try:
count = int(count)
except ValueError:
continue
if current_word == word:
current_count += count
else:
if current_word:
print(‘%s\t%s‘ % (current_word,current_count))
current_count = count
current_word = word
if current_word == word:
print(‘%s\t%s‘ % (current_word,current_count))


三:利用hadoop Streaming执行Python的内容。

hadoop jar /home/hadoop/hadoop-2.6.0-cdh5.5.2/share/hadoop/tools/lib/hadoop-streaming-2.6.0-cdh5.5.2.jar  -input /user/hadoop/aa.txt -output /user/hadoop/python_output -mapper "python mapper.py" -reducer "python reducer.py" -file mapper.py -file reducer.py  


说明:

输入和输出路径,本身就是hdfs上的,不需要特殊指定hdfs。

不加黄色部分的引号的话,会报错误:

Error: java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 2

不加粉色部分的内容的话,会报错误:

Error: java.lang.RuntimeException: Error in configuring object


本文出自 “白话” 博客,请务必保留此出处http://feature09.blog.51cto.com/12614993/1970964

以上是关于Streaming执行Python版WordCount的主要内容,如果未能解决你的问题,请参考以下文章

Spark 2.1 Structured Streaming - 使用 Kakfa 作为 Python 的源 (pyspark)

Spark发行版笔记13:Spark Streaming源码解读之Driver容错安全性

Spark 定制版:008~Spark Streaming源码解读之RDD生成全生命周期彻底研究和思考

Spark Streaming实时项目实战(Java版)

Spark 定制版:007~Spark Streaming源码解读之JobScheduler内幕实现和深度思考

Spark Streaming发行版笔记15:no receivers彻底思考