hadoop中mapReduce整理

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop中mapReduce整理相关的知识,希望对你有一定的参考价值。

1.1 MapReduce定义

 

  1.2 MapReduce优缺点

 

1.2.1 优点

 

 

 

 

 1.2.2 缺点

 

 

 1.3 MapReduce核心思想

 

 

 

1)分布式的运算程序往往需要分成至少2个阶段。

2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。

3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。

4MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。

总结分析WordCount数据流走向深入理解MapReduce核心思想。

 

1.4 MapReduce进程

 

 

1.7 MapReduce编程规范

用户编写的程序分成三个部分:MapperReducerDriver

 

 

 

 

 如果在IDEA上执行代码操作。

 1 <dependencies>
 2         <dependency>
 3             <groupId>junit</groupId>
 4             <artifactId>junit</artifactId>
 5             <version>RELEASE</version>
 6         </dependency>
 7         <dependency>
 8             <groupId>org.apache.logging.log4j</groupId>
 9             <artifactId>log4j-core</artifactId>
10             <version>2.8.2</version>
11         </dependency>
12         <dependency>
13             <groupId>org.apache.hadoop</groupId>
14             <artifactId>hadoop-common</artifactId>
15             <version>2.7.2</version>
16         </dependency>
17         <dependency>
18             <groupId>org.apache.hadoop</groupId>
19             <artifactId>hadoop-client</artifactId>
20             <version>2.7.2</version>
21         </dependency>
22         <dependency>
23             <groupId>org.apache.hadoop</groupId>
24             <artifactId>hadoop-hdfs</artifactId>
25             <version>2.7.2</version>
26         </dependency>
27 </dependencies>
在pom.xml文件中添加如下依赖

在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties

 

1 log4j.rootLogger=INFO, stdout
2 log4j.appender.stdout=org.apache.log4j.ConsoleAppender
3 log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
4 log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
5 log4j.appender.logfile=org.apache.log4j.FileAppender
6 log4j.appender.logfile.File=target/spring.log
7 log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
8 log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.properties

 

2.1 序列化概述

 

 

 

 

 MapReduce框架原理

 

3.1 InputFormat数据输入

 

 切片MapTask并行度决定机制

 

 

 

2FileInputFormat切片源码解析(input.getSplits(job))

 

 

 

 

 FileInputFormat切片机制

 

 

 CombineTextInputFormat切片机制

 

框架默认的TextInputFormat切片机制是任务按文件规划切片不管文件多小都会是一个单独的切都会交给一个MapTask这样如果有大量小文件产生大量的MapTask处理效率极其低下。

 

MapReduce工作流程

 

 

 

 

 

上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从7步开始16结束,具体Shuffle过程详解如下:

1MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中

2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件

3)多个溢出文件会被合并成大的溢出文件

4)在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序

5ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据

6ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)

7)合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)

3注意

Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。

缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M

 

 

Map方法之后Reduce方法之前的数据处理过程称之为Shuffle

 

  Partition分区

 

 

 WritableComparable排序

 

 

 

 

 

 

 

GroupingComparator分组(辅助排序

Reduce阶段的数据根据某一个几个字段进行分组

分组排序步骤:

1)自定义类继承WritableComparator

2重写compare()方法

@Override

public int compare(WritableComparable a, WritableComparable b) {

// 比较的业务逻辑

return result;

}

3)创建一个构造比较对象的类传父类

protected OrderGroupingComparator() {

super(OrderBean.class, true);

}

MapTask工作机制

 

 

 

1Read阶段:MapTask通过用户编写的RecordReader从输入InputSplit解析出一个个key/value

2Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value

3Collect收集阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在函数内部,它会生成的key/value分区调用Partitioner并写入一个环形内存缓冲区中。

4Spill阶段:即当环形缓冲区满后,MapReduce将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要对数据进行合并压缩等操作

写阶段详情:

步骤1利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition进行排序,然后按照key进行排序。这样经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。

步骤2按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.outN表示当前溢写次数)中。如果用户设置了Combiner,则写入文件之前,对每个分区中数据进行一次聚集操作。

步骤3将分区数据的元信息写到内存索引数据结构SpillRecord,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1MB,则将内存索引写到文件output/spillN.out.index

5Combine阶段:当所有数据处理完成后,MapTask所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

所有数据处理完后,MapTask将所有临时文件合并成一个大文件保存到文件output/file.out,同时生成相应的索引文件output/file.out.index

进行文件合并过程中,MapTask分区为单位进行合并。对于某个分区,将采用多轮递归合并的方式每轮合并io.sort.factor(默认10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。

每个MapTask最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

 

 ReduceTask工作机制

 

 

 

1Copy阶段:ReduceTask各个MapTask上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。

2Merge阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。

3Sort阶段:按照MapReduce语义,用户编写reduce()函数输入数据是按key进行聚集的一组数据。为了key相同的数据聚在一起,Hadoop采用了基于排序的策略。由于各个MapTask已经实现对自己的处理结果进行了局部排序,因此,ReduceTask只需对所有数据进行一次归并排序即可。

4Reduce阶段:reduce()函数将计算结果写到HDFS上。

 

 

 

 

 Join多种应用

 

 

 

数据清洗(ETL

运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。

 

 

 

 

 

 

 

 

 

 

 Hadoop数据压缩

4.1 概述

 

 

 

 

 

 4.2 MR支持的压缩编码

 

 

压缩格式

hadoop自带?

算法

文件扩展名

是否可切分

换成压缩格式后,原来的程序是否需要修改

DEFLATE

是,直接使用

DEFLATE

.deflate

和文本处理一样,不需要修改

Gzip

是,直接使用

DEFLATE

.gz

和文本处理一样,不需要修改

bzip2

是,直接使用

bzip2

.bz2

和文本处理一样,不需要修改

LZO

否,需要安装

LZO

.lzo

需要建索引,还需要指定输入格式

Snappy

否,需要安装

Snappy

.snappy

和文本处理一样,不需要修改

 

压缩格式

对应的编码/解码器

DEFLATE

org.apache.hadoop.io.compress.DefaultCodec

gzip

org.apache.hadoop.io.compress.GzipCodec

bzip2

org.apache.hadoop.io.compress.BZip2Codec

LZO

com.hadoop.compression.lzo.LzopCodec

Snappy

org.apache.hadoop.io.compress.SnappyCodec

 

压缩算法

原始文件大小

压缩文件大小

压缩速度

解压速度

gzip

8.3GB

1.8GB

17.5MB/s

58MB/s

bzip2

8.3GB

1.1GB

2.4MB/s

9.5MB/s

LZO

8.3GB

2.9GB

49.3MB/s

74.6MB/s

 

 

 

 

以上是关于hadoop中mapReduce整理的主要内容,如果未能解决你的问题,请参考以下文章

hadoop中mapReduce整理

hadoop的mapreduce常见算法案例有几种

Hadoop整理四(Hadoop分布式计算框架MapReduce)

Hadoop整理三(Hadoop分布式计算框架MapReduce)

16-hadoop-mapreduce简介

Hadoop面试整理