大数据技术之Hive函数压缩和存储

Posted @从一到无穷大

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据技术之Hive函数压缩和存储相关的知识,希望对你有一定的参考价值。

文章目录


1 函数

1.1 系统内置函数

1. 查看系统自带的函数

hive (default)> show functions;

2. 显示自带的函数的用法

hive (default)> desc function upper;

3. 详细显示自带的函数的用法

hive (default)> desc function extended upper;

1.2 常用内置函数

1.2.1 空字段赋值

(1)函数说明
NVL:给值为 NULL的数据赋值,它的格式是 NVL(value,default_value)。它的功能是如果 value为 NULL,则 NVL函数返回 default_value 的值,否则返回 value 的值。如果两个参数都为 NULL,则返回 NULL。

(2)数据准备:采用员工表

(3)查询:如果员工的 comm为 NULL,则用 -1代替

hive (default)> select comm, nvl(comm, -1) from emp;
OK
comm	_c1
NULL	-1.0
300.0	300.0
500.0	500.0
NULL	-1.0
1400.0	1400.0
NULL	-1.0
NULL	-1.0
NULL	-1.0
NULL	-1.0
0.0	0.0
NULL	-1.0
NULL	-1.0
NULL	-1.0
NULL	-1.0
NULL	-1.0
Time taken: 2.891 seconds, Fetched: 15 row(s)

(4)查询:如果员工的 comm 为 NULL,则用领导 id 代替

hive (default)> select comm, nvl(comm, mgr) from emp;
OK
comm	_c1
NULL	7902.0
300.0	300.0
500.0	500.0
NULL	7839.0
1400.0	1400.0
NULL	7839.0
NULL	7839.0
NULL	7566.0
NULL	NULL
0.0	0.0
NULL	7788.0
NULL	7698.0
NULL	7566.0
NULL	7782.0
NULL	7782.0

1.2.2 CASE WHEN THEN ELSE END

(1)数据准备(人名来自电视剧《将夜》)

name	dept_id	sex
夫子	A	男
观主	B	男
李慢慢	A	男
余帘	A	女
叶红鱼	B	女
君陌	A	男
叶青	B	男
宁缺	A	男
木柚	A	女

(2)需求:求出不同部门男女各多少人。

(3)创建 hive 表并导入数据

hive (default)> create table emp_sex(
              > name string,
              > dept_id string,
              > sex string)
              > row format delimited fields terminated by "\\t";
OK
Time taken: 0.64 seconds

(4)按需求查询数据

hive (default)> select dept_id,
              > sum(case sex when '男' then 1 else 0 end) male_count,
              > sum(case sex when '女' then 1 else 0 end) female_count
              > from emp_sex
              > group by dept_id;
OK
dept_id	male_count	female_count
A	4	2
B	2	1
Time taken: 9.155 seconds, Fetched: 2 row(s)

1.2.3 行转列

1. 相关函数说明
CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串 ;

CONCAT_WS(separator, str1, str2,…):它是一个特殊形式的 CONCAT()。第一个参数表示剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL ,返回值也将为 NULL 。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

注意: CONCAT_WS must be string or array<string>

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生 Array类型字段。

2. 数据准备(人名来自于电视剧《将夜》)

name	constellation	blood_type
柳白	白羊座	A
讲经首座	射手座	A
陈某	白羊座	B
陈皮皮	白羊座	A
莫山山	射手座	A
熊初墨	白羊座	B
柯浩然	射手座	A

3. 需求
把星座和血型一样的人归类到一起。

4. 创建hive表并导入数据

hive (default)> create table person_info(
              > name string,
              > constellation string,
              > blood_type string)
              > row format delimited fields terminated by '\\t';
OK
Time taken: 0.848 seconds

hive (default)> load data local inpath "/opt/module/hive-3.1.2/data/person_info.txt" into table person_info;
Loading data to table default.person_info
OK
Time taken: 0.682 seconds

5. 按需求查询数据

hive (default)> select t1.c_b, concat_ws("|", collect_set(t1.name))
              > from (select name,concat_ws(',', constellation,blood_type) c_b
              > from person_info) t1
              > group by t1.c_b;
OK
t1.c_b	_c1
射手座,A	讲经首座|莫山山|柯浩然
白羊座,A	柳白|陈皮皮
白羊座,B	陈某|熊初墨
Time taken: 24.49 seconds, Fetched: 3 row(s)

1.2.4 列转行

1. 函数说明
EXPLODE( 将 hive 一 列中复杂的 Array 或者 Map 结构拆分成多行。

LATERAL VIEW
用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias
解释:用于和 split, explode 等 UDTF 一起使用 它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

2. 数据准备

movies	category
《流浪地球》	悬疑,动作,科幻,剧情
《警察故事》	悬疑,警匪,动作,心理,剧情
《战狼2》	战争,动作,灾难

3. 需求:将电影分类中的数组数据展开。

4. 创建 hive 表并导入数据

hive (default)> create table movie_info(
              > movie string,
              > category string)
              > row format delimited fields terminated by '\\t';
OK
Time taken: 0.143 seconds

hive (default)> load data local inpath "/opt/module/hive-3.1.2/data/movie_info.txt" into table movie_info;
Loading data to table default.movie_info
OK
Time taken: 0.518 seconds

5. 按需求查询数据

hive (default)> select movie, category_name
              > from movie_info
              > lateral view
              > explode(split(category, ",")) movie_info_tmp as category_name;
OK
movie	category_name
《流浪地球》	悬疑
《流浪地球》	动作
《流浪地球》	科幻
《流浪地球》	剧情
《警察故事》	悬疑
《警察故事》	警匪
《警察故事》	动作
《警察故事》	心理
《警察故事》	剧情
《战狼2》	战争
《战狼2》	动作
《战狼2》	灾难
Time taken: 0.132 seconds, Fetched: 12 row(s)

1.2.5 窗口函数(开窗函数)

1. 相关函数说明
OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
CURRENT ROW:当前行
n PRECEDING :往前 n 行数据
n FOLLOWING :往后 n 行数据
UNBOUNDED:起点,UNBOUNDED PRECEDING 表示从前面的起点,UNBOUNDED FOLLOWING 表示到后面的终点。
LAG(col,n,default_val):往前第 n 行数据
LEAD(col,n,default_val )):往后第 n 行数据
NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对于每一行, NTILE 返回此行所属的组的编号。 注意: n 必须为 int 类型。

2. 数据准备: name,orderdate,cost

jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

3. 创建 hive表并导入数据

hive (default)> create table business(
              > name string,
              > orderdate string,
              > cost int
              > ) row format delimited fields terminated by ',';
OK
Time taken: 0.864 seconds

hive (default)> load data local inpath "/opt/module/hive-3.1.2/data/business.txt" into table business;
Loading data to table default.business
OK
Time taken: 0.777 seconds

4. 按需求查询数据
(1)查询在 2017 年 4 月份购买过的顾客及总人数

hive (default)> select name, count(*) over()
              > from business
              > where substring(orderdate,1,7)='2017-04'
              > group by name;

OK
name	count_window_0
jack	2
mart	2

(2)查询顾客的购买明细及月购买总额

hive (default)> select name, orderdate, cost, sum(cost) over(partition by month(orderdate))
              > from business;
OK
name	orderdate	cost	sum_window_0
jack	2017-01-01	10	205
tony	2017-01-02	15	205
tony	2017-01-04	29	205
jack	2017-01-05	46	205
tony	2017-01-07	50	205
jack	2017-01-08	55	205
jack	2017-02-03	23	23
mart	2017-04-13	94	341
mart	2017-04-08	62	341
mart	2017-04-09	68	341
mart	2017-04-11	75	341
jack	2017-04-06	42	341
neil	2017-05-10	12	12
neil	2017-06-12	80	80
Time taken: 31.353 seconds, Fetched: 14 row(s)

(3)将每个顾客的 cost 按照日期进行累加

hive (default)> select name, orderdate, cost,
              >               sum(cost) over() as sample,
              >               sum(cost) over(partition by name) as sample2,
              >               sum(cost) over(partition by name order by orderdate) as sample3,
              >               sum(cost) over(partition by name order by orderdate rows between unbounded preceding and current row) as sample4,
              >               sum(cost) over(partition by name order by orderdate rows between 1 preceding and current row) as sample5,
              >               sum(cost) over(partition by name order by orderdate rows between 1 preceding and 1 following) as sample6,
              >               sum(cost) over(partition by name order by orderdate rows between current row and unbounded following) as sample7
              >               from business;
OK
name	orderdate	cost	sample	sample2	sample3	sample4	sample5	sample6	sample7
jack	2017-01-01	10	661	176	10	10	10	56	176
jack	2017-01-05	46	661	176	56	56	56	111	166
jack	2017-01-08	55	661	176	111	111	101	124	120
jack	2017-02-03	23	661	176	134	134	78	120	65
jack	2017-04-06	42	661	176	176	176	65	65	42
mart	2017-04-08	62	661	299	62	62	62	130	299
mart	2017-04-09	68	661	299	130	130	130	205	237
mart	2017-04-11	75	661	299	205	205	143	237	169
mart	2017-04-13	94	661	299	299	299	169	169	94
neil	2017-05-10	12	661	92	12	12	12	92	92
neil	2017-06-12	80	661	92	92	92	92	92	80
tony	2017-01-02	15	661	94	15	15	15	44	94
tony	2017-01-04	29	661	94	44	44	44	94	79
tony	2017-01-07	50	661	94	94	94	79	79	50
Time taken: 26.212 seconds, Fetched: 14 row(s)

sample表示所有行相加,sample2表示按name分组,组内数据相加,sample3表示按name分组,组内数据累加,sample4和sample3一样,由起点到当前行的聚合,sample5表示当前行和前面一行聚合,sample表示当前行和前边一行及后面一行聚合,sample7表示当前行及后面所有行聚合。
rows必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量。

(4)查看顾客上次的购买时间

hive (default)> select name, orderdate, cost,
              > lag(orderdate, 1, '1900-01-01') over(partition by name order by orderdate)
              > as time1, lag(orderdate, 2) over (partition by name order by orderdate) as time2
              > from business;
OK
name	orderdate	cost	time1	time2
jack	2017-01-01	10	1900-01-01	NULL
jack	2017-01-05	46	2017-01-01	NULL
jack	2017-01-08	55	2017-01-05	2017-01-01
jack	2017-02-03	23	2017-01-08	2017-01-05
jack	2017-04-06	42	2017-02-03	2017-01-08
mart	2017-04-08	62	1900-01-01	NULL
mart	2017-04-09	68	2017-04-08	NULL
mart	2017-04-11	75	2017-04-09	2017-04-08
mart	2017-04-13	94	2017-04-11	2017-04-09
neil	2017-05-10	12	1900-01-01	NULL
neil	2017-06-12	80	2017-05-10	NULL
tony	2017-01-02	15	1900-01-01	NULL
tony	2017-01-04	29	2017-01-02	NULL
tony	2017-01-07	50	2017-01-04	2017-01-02

time1表示顾客上次购买的时间,没有的话用’1900-01-01’代替,time2表示顾客前两次购买的时间。

(5)查询前 20% 时间的订单信息

hive (default)> select * from(
              > select name, orderdate, cost, ntile(5) over(order by orderdate) sorted
              > from business
              > ) t
              > where sorted = 1;
OK
t.name	t.orderdate	t.cost	t.sorted
jack	2017-01-01	10	1
tony	2017-01-02	15	1
tony	2017-01-04	29	1

将数据按时间分为5个组,取第一个组的数据。

1.2.6 Rank

1. 函数说明
RANK():排序相同时会重复,总数不会变
DENSE_RANK():排序相同时会重复,总数会减少
ROW_NUMBER():会根据顺序计算

2. 数据准备(人名来自电视剧《将夜》)

柯浩然	语文	87
柯浩然	数学	95
柯浩然	英语	68
余帘	语文	94
余帘	数学	58
余帘	英语	84
颜瑟	语文	64
颜瑟	数学	86
颜瑟	英语	84
王景略	语文	65
王景略	数学	85
王景略	英语	78	

3. 创建 hive 表并导入数据

hive (default)> create table score(
              > name string,
              > subject string,
              > score int)
              > row format delimited fields terminated by "\\t";
OK
Time taken: 0.672 seconds

hive (default)> load data local inpath '/opt/module/hive-3.1.2/data/score.txt' into table score;
Loading data to table default.score
OK
Time taken: 0.48 seconds

4. 计算每门学科成绩排名

hive (default)> select name大数据技术之_08_Hive学习_04_压缩和存储(Hive高级)+ 企业级调优(Hive优化)

技术干货Hive实践分享之存储和压缩的坑

打怪升级之小白的大数据之旅(六十八)<Hive旅程第九站:Hive的压缩与存储>

打怪升级之小白的大数据之旅(六十八)<Hive旅程第九站:Hive的压缩与存储>

大数据开发工程师Hive(Hive如何进行优化)

2021年大数据Hive:Hive的数据存储格式