大数据之Hadoop(MapReduce): shuffle之Combiner合并
Posted 浊酒南街
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据之Hadoop(MapReduce): shuffle之Combiner合并相关的知识,希望对你有一定的参考价值。
1.Combiner合并
1.Combiner是MR程序中Mapper和Reducer之外的一种组件。
2.Combiner组件的父类就是Reducer。
3.Combiner和Reducer的区别在于运行的位置
Combiner是在每一个MapTask所在的节点运行;
Reducer是接收全局所有Mapper的结果;
4.Combiner的意义就是对每一个MapTask的输出进行局部汇总,以减少网络传输量。
5.Combiner能够应用的前提是不能影响最终的业务逻辑,而且,Combiner的输出kv应该跟Reducer的输入kv类型要对应起来;
Mapper Reducer
3 5 7 -->(3+5+7)/3=5 (3+5+7+2+6)/5=23/5 不等于(5+4)/2=9/2
2 6 -->(2+6)/2=4
2.自定义Combiner实现步骤
a.自定义一个Combiner继承Reducer,重写Reduce方法
public class WordcountCombiner extends Reducer<Text, IntWritable, Text,IntWritable>{
@Override
protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
// 1 汇总操作
int count = 0;
for(IntWritable v :values){
count += v.get();
}
// 2 写出
context.write(key, new IntWritable(count));
}
}
b.在Job驱动类中设置:
job.setCombinerClass(WordcountCombiner.class);
以上是关于大数据之Hadoop(MapReduce): shuffle之Combiner合并的主要内容,如果未能解决你的问题,请参考以下文章
大数据之Hadoop(MapReduce): MapReduce概述
大数据之Hadoop(MapReduce):MapReduce核心思想