hive如何调整map数和reduce数
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hive如何调整map数和reduce数相关的知识,希望对你有一定的参考价值。
参考技术A一般情况下,启动一个hive任务时hive会计算这个任务需要用到的map和reduce数量,通常map数和reduce数不需要调整。但是有时如果map或reduce的计算很复杂、单个map的执行时间很长,且hive分配的map数或reduce比较少,集群还有大量计算资源没有利用的情况下,可以通过增大map数或reduce数,来提高任务并发,缩短任务计算时长,提高计算效率。
InputFormat 接口按照某个策略将输入数据且分成若干个 split,以便确定 Map Task 的个数即 Mapper 的个数,在 MapReduce 框架中,一个 split 就意味着需要一个 Map Task;
当 hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat 时,hive会先计算splitSize ,然后通过splitSize、任务输入的数据量大小和文件数来共同决定split数量,即map数。
splitSize = maxminSize,mingoalSize,blockSize
其中
由上公式可知,在 org.apache.hadoop.hive.ql.io.HiveInputFormat 接口下,主要是 mapreduce.input.fileinputformat.split.minsize 和 mapreduce.job.maps 来决定map数
当 hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat 时,主要是如下四个参数起作用:
tez on mr模式下reduce数主要受如下两个参数影响:
reducer数 = min(hive.exec.reducers.max,max(1,totalsize/hive.exec.reducers.bytes.per.reducer))
在运行hive on tez时会发现跟hive on mr的map数差异会比较大,主要原因在于 Tez 中对 inputSplit 做了 grouping 操作,将多个 inputSplit 组合成更少的 groups,然后为每个 group 生成一个 mapper 任务,而不是为每个inputSplit 生成一个mapper 任务。
可以通过调整如下参数来调整grouping数:
tez on tez模式下reduce数主要受如下两个参数影响:
reducer数 = Max(1, Min(hive.exec.reducers.max, ReducerStage estimate/hive.exec.reducers.bytes.per.reducer))x hive.tez.max.partition.factor
hive.merge.mapfiles = true #在Map-only的任务结束时合并小文件
hive.merge.mapredfiles = true #在Map-Reduce的任务结束时合并小文件
hive.merge.size.per.task = 256*1000*1000 #合并文件的大小
hive.merge.smallfiles.avgsize=16000000 #当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
上面参数会在任务结束后,如果任务生成的小文件触发了 hive.merge.smallfiles.avgsize= 会另外再启reduce任务来合并小文件。
如果往分桶表里插入数据,由于hdfs最终会每个桶一个文件,因此在当分桶表设置了多少个桶,最终就会生成多少个reduce任务
有的文件格式并不支持切分,如果hive表的存储的文件格式不支持切分,则在查询该表时,有多少文件就会产生多少map任务。例如,存储格式是text,但是采用了gzip压缩,这种情况下则不支持切分,读表数据时,该表对应的存储目录下有多少个文件就会生成多少个map任务, 每个map任务处理一个文件的数据 。
map数和reduce数并非越多越好,需要综合多少情况来考虑
一般情况下不需要调整map数和reduce数,当单个map执行时间过长时,且map数不多的情况下,就需要通过调整map数,通过提高map数,提高并发来缩短单个map的执行时间,从而缩短整合任务的计算时间。同样reduce阶段单个reduce处理数据量很大,耗时比较长时,而分配的reduce数不多的情况下,也可以通过提高reduce数来减少每个reudce的计算时长。
那单个map执行多少时间为宜: 根据在大数据集群上的实践经验, 单个map宜在1-2分钟执行完是比较好 ,如果单个map执行时间太短,会消耗比较多的时间在申请集群资源和初始化资源阶段,反倒影响整体任务效率;如果单个map执行时间太长,长时间占用集群资源,不能及时释放资源,导致其他任务长时间等待,不利于集群计算资源的合理利用。
同样,reduce任务阶段,一般执行会比较长,因此reduce阶段不reduce数不宜太多,一般不超过集群cores数的50%,太多会占用大量集群资源,导致其他任务获取不到资源而排队,同时也会生成过多的文件。
以上是关于hive如何调整map数和reduce数的主要内容,如果未能解决你的问题,请参考以下文章
hive优化之——控制hive任务中的map数和reduce数
hive中估算map和reduce task个数的方法和参数设置相关
Hive--13---企业级调优1---Explain合理设置 Map及 Reduce数