hive 使用技巧和总结

Posted 大数据魔法师

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hive 使用技巧和总结相关的知识,希望对你有一定的参考价值。

1.抽样
从一个表中随机抽样得到一个不重复的数据样本,

  1. 随机取样
    SELECT * FROM <Table_Name> DISTRIBUTE BY RAND() SORT BY RAND()    LIMIT ;
    这是使用RAND()函数和LIMIT关键字来获取样例数据。
    使用DISTRIBUTE和SORT关键字来保证数据是随机分散到mapper和reducer的。ORDER BY RAND()语句可以获得同样的效果,但是性能没这么高
    顺便说下:
    order by是对输入做全局排序,因此要在一个reduce中完成,而一个reduce会导致大数据量情况下计算非常缓慢,这也是尽量避免用order by的原因。使用时尽量配合limit使用,因为order by后面不跟limit。order by会强制将reduce number设置成1,不加limit,会将所有数据sink到reduce端来做全排序。

    if (sortExprs == null) {
      sortExprs = qb.getParseInfo().getOrderByForClause(dest);
      if (sortExprs != null) {
        assert numReducers == 1;
        // in strict mode, in the presence of order by, limit must be specified
        Integer limit = qb.getParseInfo().getDestLimit(dest);
        if (conf.getVar(HiveConf.ConfVars.HIVEMAPREDMODE).equalsIgnoreCase(
            "strict")
            && limit == null) {
          throw new SemanticException(generateErrorMessage(sortExprs,
                ErrorMsg.NO_LIMIT_WITH_ORDERBY.getMsg()));
        }
      }
    }


sort by不是全局排序,其在数据进入reducer前完成排序,因此,如果用sort by进行排序,当设置mapred.reduce.tasks>1时,也就是在reduce大于一个的情况下,则sort by只能保证每个reducer的输出有序,并不保证全局有序。sort by不同于order by,它不受hive.mapred.mode属性的影响,sort by的数据只能保证在同一个reduce中的数据可以按指定字段排序,支持desc/asc。使用sort by你可以指定执行的reduce个数(通过set mapred.reduce.tasks=n来指定,也就生成几个局部有序的文件),对输出的数据再执行归并排序,即可得到全部结果。

distribute by则是控制在map端如何拆分数据给reduce端。hive会根据distribute by后面列,对应reduce的个数进行分发,默认是采用hash算法。sort by为每个reduce产生一个排序文件。在有些情况下,你需要控制某个特定行应该到哪个reducer,这通常是为了进行后续的聚集操作。distribute by刚好可以做这件事。因此,distribute by经常和sort by配合使用。

public int getPartition(K2 key, V2 value,
                          int numReduceTasks) {
    return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
  }


cluster by除了具有distribute by的功能外还兼具sort by的功能。但是排序只能是倒叙排序,不能指定排序规则为ASC或者DESC。

select  *  from test  distribute by rand() sort by rand()/order by rand() limit 10;


  1. 拼接随机数
    生成一个随机的列再取其中的值

select * from (  
select a.*,cast(rand() * 10000 as int) as rid from  test  a 

                      ) b order by b.rid limit 1000


  1. 数据块取样
    block_sample: TABLESAMPLE (n PERCENT)
    根据inputSize的大小,取样百分分比n的数据。
    如获取test表50%的数据:

SELECT * FROM test TABLESAMPLE (50 PERCENT)


block_sample: TABLESAMPLE (nM)
根据大小获取多少M的数据

SELECT * FROM test TABLESAMPLE (30M);


block_sample: TABLESAMPLE (n ROWS)
根据inputSize获取取样每个map输入的行数据
总行数=10*map数

 SELECT * FROM tesgt TABLESAMPLE (2 ROWS)  where day='2018-10-03'


  1. 分桶取样
    分桶其实就是根据某一个字段Hash取模分桶数,放入指定数据的桶中
    语法 : TABLESAMPLE (BUCKET x OUT OF y [ON colname])

其中x是要抽样的桶编号,桶编号从1开始,colname表示抽样的列,y表示桶的数量。
例如:将表test随机分成5个桶,抽样第一个桶的数据;

SELECT *
FROM test TABLESAMPLE (BUCKET 1 OUT OF 5 ON rand());


2.分组

  1. 文件切分

set mapred.reduce.tasks=5;
create table test2
select * from test1
distribute by rand(123);


设置5个reduce,通过distribute by rand(123) 将数据随机打散,平均分配到5个文件中,这种方式能够处理文件过大,文件大小不均的问题,同时可以通过这种方式增加map数

3.控制map数
set mapred.max.split.size=100000000;
set mapred.min.split.size.per.node=100000000;
set mapred.min.split.size.per.rack=100000000;
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

100000000表示100M, set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;这个参数表示执行前进行小文件合并,
前面三个参数确定合并文件块的大小,大于文件块大小128m的,按照128m来分隔,小于128m,大于100m的,按照100m来分隔,把那些小于100m的(包括小文件和分隔大文件剩下的)
第二是设置hive参数,将额外启动一个MR Job打包小文件
hive.merge.mapredfiles = false 是否合并 Reduce 输出文件,默认为 False
hive.merge.size.per.task = 25610001000 合并文件的大小
4.控制reduce数
reduce数量由以下三个参数决定,
set mapred.reduce.tasks=2 (指定reduce的任务数量为2)
set hive.exec.reducers.bytes.per.reducer=1073741824(每个reduce任务处理的数据量,默认为1000^3=1G)

set hive.exec.reducers.max=999(每个job最大的reduce数,默认为999)
计算reducer数的公式
N=min( hive.exec.reducers.max ,总输入数据量/ hive.exec.reducers.bytes.per.reducer )
只有一个reduce的情况:
a、没有group by 的汇总
b、order by
c、笛卡尔积

5.数据倾斜
hive.map.aggr=true
会在mapper先做一次聚合,减少reduce需要处理的数据,相当于在Map端做combiner,假如map各条数据基本上不一样, 则没有聚合的意义,在做combiner反而画蛇添足,hive里为了更合理点儿通过参数hive.groupby.mapaggr.checkinterval = 100000 ,hive.map.aggr.hash.min.reduction=0.5,来控制。预先取100000条数据聚合,如果聚合后的条数/100000>0.5,则不再聚合
hive.groupby.skewindata=true
配置变量的缩写,可以设置为true或false,表示是否是倾斜表等

set hive.skewjoin.key=100000;
这个是join的键对应的记录条数超过这个值则会进行分拆,值根据具体数据量设置
set hive.optimize.skewjoin=true;
如果是join 过程出现倾斜 应该设置为true

6.生成唯一id列

生成uuid,去除中间的“-”

regexp_replace(reflect("java.util.UUID", "randomUUID"), "-", "")


这里主要看看reflect函数
reflect函数可以支持在sql中调用java中的自带函数
例如:
取column1和column2中的最大值

select reflect("java.lang.Math","max",column1,column2) from test


sql:select reflect(class_name,method_name,column1,column2) from tablename;

如果字段是函数名称 java.lang.Math ,method_name是具体的方法,max/min也是支持的

7.牛逼的开窗函数
SUM、AVG、MIN、MAX 配合 over()使用
LAG,LEAD,FIRST_VALUE,LAST_VALUE
GROUPING SETS,GROUPING__ID,CUBE,ROLLUP
可基于窗口解决许多sql难以实现的问题
如分大类小类的求和,不同层级的累加,分片等等
http://lxw1234.com/archives/tag/hive-window-functions

参考:
https://www.cnblogs.com/xd502djj/p/3799432.html
https://blog.csdn.net/u013668852/article/details/79866931


以上是关于hive 使用技巧和总结的主要内容,如果未能解决你的问题,请参考以下文章

BootStrap实用代码片段(持续总结)

查看发票组代码后的总结和有感

Hive内容总结

Hudi Java Client总结|读取Hive写Hudi代码示例

Hive 学习总结

hive 使用技巧和总结