Streaming执行Python版WordCount
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Streaming执行Python版WordCount相关的知识,希望对你有一定的参考价值。
一:先写map类
import sys for line in sys.stdin: line = line.strip( ) words = line.split( ) for word in words: print(‘%s\t%s‘ % (word, 1))
二:写reduce类
import sys current_word = None current_count = 0 word = None for line in sys.stdin: line = line.strip() word, count = line.split(‘\t‘,1) try: count = int(count) except ValueError: continue if current_word == word: current_count += count else: if current_word: print(‘%s\t%s‘ % (current_word,current_count)) current_count = count current_word = word if current_word == word: print(‘%s\t%s‘ % (current_word,current_count))
三:利用hadoop Streaming执行Python的内容。
hadoop jar /home/hadoop/hadoop-2.6.0-cdh5.5.2/share/hadoop/tools/lib/hadoop-streaming-2.6.0-cdh5.5.2.jar -input /user/hadoop/aa.txt -output /user/hadoop/python_output -mapper "python mapper.py" -reducer "python reducer.py" -file mapper.py -file reducer.py
说明:
输入和输出路径,本身就是hdfs上的,不需要特殊指定hdfs。
不加黄色部分的引号的话,会报错误:
Error: java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 2
不加粉色部分的内容的话,会报错误:
Error: java.lang.RuntimeException: Error in configuring object
本文出自 “白话” 博客,请务必保留此出处http://feature09.blog.51cto.com/12614993/1970964
以上是关于Streaming执行Python版WordCount的主要内容,如果未能解决你的问题,请参考以下文章
Spark 2.1 Structured Streaming - 使用 Kakfa 作为 Python 的源 (pyspark)
Spark发行版笔记13:Spark Streaming源码解读之Driver容错安全性
Spark 定制版:008~Spark Streaming源码解读之RDD生成全生命周期彻底研究和思考