大数据系列~MapReduce介绍

Posted 软件技术共享平台

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据系列~MapReduce介绍相关的知识,希望对你有一定的参考价值。

一、MapReduce介绍

        一个分布式运算程序的编程框架,它的核心功能是将用户编写的业务逻辑代码和自带的默认组件整合成一个完整的分布式运算程序,并发布在一个hadoop集群上。

 优点:

(1)易于编程。只要简单的实现一些接口就可以完成一个分布式程序。

(2)扩展性好。

(3)高容错性。一台机器挂了,hadoop内部可在集群中切换任务运行的机器。

(4)适合PB级以上海量数据处理。

缺点:

(1)它适合离线处理场景,无法像mysql一样进行毫秒级内的实时计算返回结果。

(2)处理的数据集(数据源)是静态的,不能动态变化。


二、MapReduce核心编程思想


运算程序分为两个阶段:



1、MapReduce的八大步骤:

Map阶段:

  • 第一步: 通过FileInputFormat读取文件, 解析文件成为key, value对, 输出到第二步.

  • 第二步: 自定义Map逻辑, 处理key1, value1, 将其转换为key2, value2, 输出到第三步.

Shuffle阶段:

  • 第三步: 对key2, value2进行分区.

  • 第四步: 对不同分区内的数据按照相同的key进行排序.

  • 第五步: 分组后的数据进行规约(combine操作),降低数据的网络拷贝(可选步骤)

  • 第六步: 对排序后的数据, 将相同的key的value数据放入一个集合中, 作为value2.

Reduce阶段:

  • 第七步: 对多个map的任务进行合并, 排序. 自定义reduce逻辑, 处理key2, value2, 将其转换为key3, value3, 进行输出.

  • 第八步: 通过FileOutputFormat输出处理后的数据, 保存到文件.

2、MapTask运行机制


(1)首先,读取数据组件InputFormat(默认TextInputFormat)会通过getSplits方法对输入目录中文件进行逻辑切片规划得到splits,有多少个split就对应启动多少个MapTask。

(2)将输入文件切分为splits之后,由RecordReader对象(默认LineRecordReader)进行读取,以\n作为分隔符,读取一行数据,返回<key,value>。

(3)进入用户自己继承的Mapper类中,执行用户重写的map函数。RecordReader读取一行这里调用一次。

(4)将map的每条结果通过context.write进行collect数据收集。在collect中,会先对其进行分区处理,默认使用HashPartitioner。分区的作用就是根据key或value及reduce的数量来决定当前的这对输出数据最终应该交由哪个reduce task处理。默认对key hash后再以reduce task数量取模。默认的取模方式只是为了平均reduce的处理能力,如果用户自己对Partitioner有需求,可以订制并设置到job上。

(5)将数据写入内存,内存中这片区域叫做环形缓冲区,缓冲区的作用是批量收集map结果,减少磁盘IO的影响。我们的key/value对以及Partition的结果都会被写入缓冲区。当然写入之前,key与value值都会被序列化成字节数组。

环形缓冲区是一个数组,数组中存放着key、value的序列化数据和key、value的元数据信息,包括partition、key的起始位置、value的起始位置以及value的长度。缓冲区默认100MB。 

从内存往磁盘写数据的过程被称为Spill,译为溢写。溢写由单独线程来完成,不影响往缓冲区写map结果的线程。整个缓冲区有个溢写的比例, 默认是0.8,当缓冲区的数据达到阈值(buffer size * spill percent = 100MB * 0.8 = 80MB),溢写线程启动,锁定这80MB的内存,执行溢写过程。Map task的输出结果还可以往剩下的20MB内存中写,互不影响。

(6)溢写线程启动后,需要对这80MB空间内的key做排序(Sort)。排序是MapReduce模型默认的行为。如果job设置过Combiner,那么现在就是使用Combiner的时候了。将有相同key的key/value对的value加起来,减少溢写到磁盘的数据量。Combiner会优化MapReduce的中间结果,所以它在整个模型中会多次使用。

哪些场景才能使用Combiner呢?从这里分析,Combiner的输出是Reducer的输入,Combiner绝不能改变最终的计算结果。Combiner只应该用于那种Reduce的输入key/value与输出key/value类型完全一致,且不影响最终结果的场景。比如累加,最大值等。Combiner的使用一定得慎重,如果用好,它对job执行效率有帮助,反之会影响reduce的最终结果。

(7)合并溢写文件:每次溢写会在磁盘上生成一个临时文件(写之前判断是否有combiner),如果map的输出结果真的很大,有多次这样的溢写发生,磁盘上相应的就会有多个临时文件存在。当整个数据处理结束之后开始对磁盘中的临时文件进行merge合并,最终的文件只有一个,写入磁盘,并且为这个文件提供了一个索引文件,以记录每个reduce对应数据的偏移量。


3、 Shuffle过程


map阶段处理的数据如何传递给reduce阶段,是MapReduce框架中最关键的一个流程,这个流程就叫shuffle。


它分布在Mapreduce的map阶段和reduce阶段。一般把从Map产生输出开始到Reduce取得数据作为输入之前的过程称作shuffle。


  • Collect阶段:将MapTask的结果输出到默认大小为100M的环形缓冲区,保存的是key/value,Partition分区信息等。

  • Spill阶段:当内存中的数据量达到一定的阀值的时候,就会将数据写入本地磁盘,在将数据写入磁盘之前需要对数据进行一次排序的操作,如果配置了combiner,还会将有相同分区号和key的数据进行排序。

  • Merge阶段:把所有溢出的临时文件进行一次合并操作,以确保一个MapTask最终只产生一个中间数据文件。

  • Copy阶段:ReduceTask启动Fetcher线程到已经完成MapTask的节点上复制一份属于自己的数据,这些数据默认会保存在内存的缓冲区中,当内存的缓冲区达到一定的阀值的时候,就会将数据写到磁盘之上。

  • Merge阶段:在ReduceTask远程复制数据的同时,会在后台开启两个线程对内存到本地的数据文件进行合并操作。

  • Sort阶段:在对数据进行合并的同时,会进行排序操作,由于MapTask阶段已经对数据进行了局部的排序,ReduceTask只需保证Copy的数据的最终整体有效性即可。

Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。缓冲区的大小可以通过参数调整, 参数:mapreduce.task.io.sort.mb 默认100M.

4、ReduceTask运行机制

 Reduce大致分为copy、sort、reduce三个阶段,重点在前两个阶段。reduceTask会启动Fetcher线程去Copy属于自己的的文件, 首先将文件放入内存缓冲区, 当copy来的文件到达一定阈值, 就会合并文件到磁盘, 然后在磁盘中生成了众多的溢写文件。直到没有map端的数据时才结束, 然后合并磁盘中的文件, 生成最终的文件.


以上是关于大数据系列~MapReduce介绍的主要内容,如果未能解决你的问题,请参考以下文章

2021年大数据Hadoop(十六):MapReduce计算模型介绍

大数据干货系列--MapReduce总结

大数据系列MapReduce示例好友推荐

大数据系列之分布式计算批处理引擎MapReduce实践-排序

大数据系列之分布式计算批处理引擎MapReduce实践

大数据系列基于MapReduce的数据处理 SequenceFile序列化文件