Hadoop的Shuffle阶段
Posted 那山的狐狸
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop的Shuffle阶段相关的知识,希望对你有一定的参考价值。
原文:
https://www.toutiao.com/i6764683672772674062/
在进入Map之前,首先会将数据从HDFS中读取,进行处理,按照字节偏移量这种之前说的形式处理为K,V对的形式,进入Map阶段。
其中InputFormat可以认为是一种类的继承关系,最终通过调用read方法,生成K,V对,输入到Map中,此时Map接收到的数据就是这个K,V对
然后数据被OutputCollector收集到(OutputCollector负责收集map输出的K,V对)
然后进入一个环形缓存区,默认大小为100M的环形缓冲区,通过mr.sort.mb配置,保存大量的K,V对,可以认为它是个环形链表
然后进入Spill阶段
当内存中的数据量达到一定的阀值的时候,就会将数据写入本地磁盘(溢写到本地),在将数据写入磁盘之前需要对数据进行一次排序的操作,如果配置了combiner,还会将有相同分区号和key的数据进行排序
把所有溢出的临时文件进行一次合并操作,以确保一个MapTask最终只产生一个中间数据文件
然后数据进入Reduce阶段(最终图黄色是Reduce)
以上是关于Hadoop的Shuffle阶段的主要内容,如果未能解决你的问题,请参考以下文章
Hadoop学习之路(二十三)MapReduce中的shuffle详解
Hadoop中的Shuffle 与 Spark中的Shuffle得区别与联系
大数据之Hadoop(MapReduce):shuffle之MapTask工作机制