关于MapReduce默认分区策略

Posted cosmos-wong

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于MapReduce默认分区策略相关的知识,希望对你有一定的参考价值。

MapReduce默认分区策略

mapreduce 默认的分区方式是hashPartition,在这种分区方式下,KV对根据key的hashcode值与reduceTask个数进行取模,决定该键值对该要访问哪个ReduceTask。

以下就是Hadoop MapReduce中对于默认分区的源码

public int getPartition(K2 key, V2 value,
                          int numReduceTasks) {
    return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
  }
  1. 其中key.hashCode(),是对map输出的key取hashCode值
  2. & 是java中位运算符,在数据的二进制层面上按位与的意思
public class data13{
public static void main(String[] args){
    int a=129;
    int b=128;
    System.out.println("a 和b 与的结果是:"+(a & b));
    }
}

运行结果:a 和b与的结果是:128

下面分析这个程序:
“a”的值是129,转换成二进制就是10000001,而“b”的值是128,转换成二进制就是10000000。

根据与运算符的运算规律,只有两个位都是1,结果才是1,可以知道结果就是10000000,即128。

  1. 综合而言,key.hashCode() & Integer.MAX_VALUE 是要保证任何map输出的key在numReduceTasks取模后决定的分区为正整数。

常见数据hashcode

  1. int类型的数据
public void testInt() {
        for(int i = -3;i<=3; i++ ) {            
            System.out.println(((Integer)i).hashCode());
        }               
    }

结果:

-3
-2
-1
0
1
2
3

由此可见,对于int数据而言,它的hashcode值就是其包装类型Integer本身,也有正负之分

  1. 解决int类型数据hashcode值取模出现负数而影响分区的方式
public void testIntMax() {
        for(int i = -3;i<=3; i++) {
            int n = ((Integer)i).hashCode();
            System.out.println(n & Integer.MAX_VALUE);
        }
    }

结果:

2147483645
2147483646
2147483647
0
1
2
3

由此可见hashcode值如果为负数的话,可以对其与Integer.MAX_VALUE按位运算,之后其结果就成为了正数

3.字符类型的hashcode值

public void testChar(){
        for(int i = (int)'a'; i<=(int)'a'+25;i++ ) {            
            String str = String.valueOf((char)i);
            System.out.print((char)i+"->"+str.hashCode()+"
");         
        }       
    }

结果:

a->97
b->98
...

x->120
y->121
z->122

由此可见英文字幕a-z或者A-Z的hashcode值就是其对应的整形数值。

————————————————
原文链接:https://blog.csdn.net/gjf362/article/details/74496977

以上是关于关于MapReduce默认分区策略的主要内容,如果未能解决你的问题,请参考以下文章

那些MapReduce负载均衡的论文级方法

MapReduce之自定义分区器Partitioner

关于Hive的调优(本身,sql,mapreduce)

MapReduce分区和排序

大数据之Hadoop(MapReduce):Shuffle之Partition分区

MapReduce的分区