大数据-Hadoop生态(19)-MapReduce框架原理-Combiner合并

Posted duoduotouhenying

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据-Hadoop生态(19)-MapReduce框架原理-Combiner合并相关的知识,希望对你有一定的参考价值。

1. Combiner概述

技术分享图片

 

 2. 自定义Combiner实现步骤

1). 定义一个Combiner继承Reducer,重写reduce方法

public class WordcountCombiner extends Reducer<Text, IntWritable, Text,IntWritable>{

    @Override
    protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {

        // 1 汇总操作
        int count = 0;
        for(IntWritable v :values){
            count += v.get();
        }

        // 2 写出
        context.write(key, new IntWritable(count));
    }
}

2). 在Driver类中添加设置

job.setCombinerClass(WordcountCombiner.class);

 

效果

技术分享图片

 

 技术分享图片

 

以上是关于大数据-Hadoop生态(19)-MapReduce框架原理-Combiner合并的主要内容,如果未能解决你的问题,请参考以下文章

赠书活动:9大实战让你全面入门大数据Hadoop+Spark生态圈,领走不谢!

从Hadoop框架讨论大数据生态

大数据Hadoop生态圈介绍

大数据概况以及Hadoop生态系统

大数据hadoop生态体系之YARN配置和使用(13)

大数据技术之_03_Hadoop学习_01_入门_大数据概论+从Hadoop框架讨论大数据生态+Hadoop运行环境搭建(开发重点)