Hive DML常见操作
Posted 蜜桃上的小叮当
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hive DML常见操作相关的知识,希望对你有一定的参考价值。
文章目录
Load加载数据
- 在之前的建表之后,我们可以通过在hdfs中传入数据文档,实现数据加载的效果,但是这种方式并不是官方推荐的方式,Hive官方推荐的是Load加载数据到表中。
Load语法功能
- Load加载是指将数据文件移动到与Hive表对应的位置,移动时是纯复制、移动操作。纯复制、移动指在数据load加载到表中时,Hive不会对表中的数据内容进行任何转换,任何操作。
- Load语法规则
LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename;
Load语法规则讲解
-
filepath表示待移动数据的路径。可以指向文件(在这种情况下,Hive将文件移动到表中),也可以指向目录(在这种情况下,Hive将把该目录中的所有文件移动到表中)。
-
filepath文件路径支持下面三种形式,要结合LOCAL关键字一起考虑:
- 相对路径
- 绝对路径
- 具有schema的完整URI
-
Local是在本地文件系统中查找文件路劲,这个本地并不是客户端,而是hiveserver2服务所在机器的本地Linux系统。没有指定local的话如果filepath指向的是一个完整的uri,会直接使用这个URI,如果也没有schema,Hive会使用Hadoop配置文件中fs.default.name指定。
Load示例
- 建表
--建表student_local用于演示从本地加载数据
CREATE TABLE student_local(
num int,
name string,
sex string,
age int,
dept string)
ROW FORMAT delimited fields terminated BY ',';
--建表student_hdfs用于演示从HDFS加载数据
CREATE TABLE student_hdfs(
num int,
name string,
sex string,
age int,
dept string)
ROW FORMAT delimited fields terminated BY ',';
- 加载数据
-- 从本地加载数据,数据位于Hiveserver2(node1)本地文件系统 本质是hadoop fs -put上传操作
LOAD DATA LOCAL INPATH '/root/hivedata/students.txt' INTO TABLE student_local;
SELECT * FROM student_local;
--从HDFS加载数据 数据位于HDFS文件系统根目录下 本质是hadoop fs -mv 移动操作
--先把数据上传到HDFS上 hadoop fs -put /root/hivedata/students.txt /cauchy/
LOAD DATA INPATH '/cauchy/students.txt' INTO TABLE student_hdfs;
- 加载前数据还在cauchy文件夹中
- 加载后数据文件移动到/user/hive/warehouse/test.db/student_hdfs中
- TIPS:如果再次load数据到表中默认是追加,如果使用overwrite into则表示覆盖之前的数据。
INSERT插入语句
- 如果是用标准SQL进行插入操作,则会导致过程及其缓慢,插入一条数据会执行Hadoop底层的MapReduce操作,如果使用insert进行数据插入可以使用insert语法把数据插入到指定的表中,最常用的配合是把查询返回的结果插入到另一张表中。
INSERT语法规则讲解
- INSERT+SELECT是将后面查询返回的结果作为内容插入到指定表中。
- 需要保证查询结果列的数目和需要插入数据表格的列数目一致。
- 如果查询出来的数据类型和插入表格对应的列数据类型不一致,将会进行转换,但是不能保证转换一定成功,转换失败的数据将会为NULL。
- INSERT+SELECT语法规则
INSERT INTO TABLE tablename select_statement1 FROM from_statement;
Insert+Select示例
- 创建一张student表
CREATE TABLE student(
num int,
name string,
sex string,
age int,
dept string)
ROW FORMAT delimited fields terminated BY ',';
- 加载数据
LOAD DATA LOCAL INPATH '/root/hivedata/students.txt' INTO TABLE student;
- 创建一张student_insert表
CREATE TABLE student_insert(sno int, sname string);
- 使用insert+select插入数据到新表中
INSERT INTO TABLE student_insert SELECT num, name FROM student;
SELECT查询语句
- Select语法规则
SELECT [ALL | DISTINCT] select_expr, select_expr, ...
FROM table_reference
[WHERE where_condition]
[GROUP BY col_list]
[ORDER BY col_list]
[LIMIT [offset,] rows];
- 数据准备us-covid19数据集
--创建表t_usa_covid19
CREATE TABLE t_usa_covid19(
count_date string,
county string,
state string,
fips int,
cases int,
deaths int)
row format delimited fields terminated BY ',';
--将数据load加载到t_usa_covid19表对应的路径下
LOAD DATA LOCAL INPATH '/root/hivedata/us-covid19-counties.dat' INTO TABLE t_usa_covid19;
简单的SELECT语句
- select_expr(column)表示检索查询返回的列,必须至少有一个select_expr。
--查询所有字段或者指定字段
select * from t_usa_covid19;
select county, cases, deaths from t_usa_covid19;
--查询当前数据库
select current_database(); --省去from关键字
ALL DISTINCT(去重)语句
- 如果没有给出这些选项,则默认值为ALL(返回所有匹配的行)。
- DISTINCT指定从结果集中删除重复的行。
--返回所有匹配的行两者相同
select state from t_usa_covid19;
select all state from t_usa_covid19;
--返回所有匹配的行,去除重复的结果
select distinct state from t_usa_covid19;
--多个字段distinct是整体去重
select distinct county,state from t_usa_covid19;
WHERE条件过滤
- WHERE后面是一个布尔表达式(结果要么为true,要么为false),用于查询过滤,当布尔表达式为true时,返回select后面expr表达式的结果,否则返回空。
- 在WHERE表达式中,可以使用Hive支持的任何函数和运算符,但聚合函数除外。
- 特殊条件(空值判断、between、in)与标准SQL语法用法相似。
--找出来自于California州的疫情数据
select * from t_usa_covid19 where state = 'California';
--where条件中使用函数 找出州名字母长度超过10位的有哪些
select * from t_usa_covid19 where length(state) >10 ;
聚合操作
- SQL中拥有很多可用于计数和计算的内建函数,其使用的语法是:SELECT function(列) FROM 表。
- 常见聚合(Aggregate)操作函数有Count、Sum、Max、Min、Avg等函数。
- 聚合函数的最大特点是不管原始数据有多少行记录,经过聚合操作只返回一条数据,这一条数据就是聚合的结果。
--统计美国总共有多少个县county
--as给查询返回的结果起个别名
select count(county) as county_cnts from t_usa_covid19;
--去重distinct
select count(distinct county) as county_cnts from t_usa_covid19;
--统计美国加州有多少个县
select count(county) as total_county_California from t_usa_covid19 where state = "California";
--统计德州总死亡病例数
select sum(deaths) as total_deaths_Texas from t_usa_covid19 where state = "Texas";
--统计出美国最高确诊病例数是哪个县
select max(cases) as max_cases_county from t_usa_covid19;
--这个比较高级了
SELECT * FROM t_usa_covid19 where cases=(select max(cases) as max_cases_county from t_usa_covid19);
GROUP BY分组
- GROUP BY语句用于结合聚合函数,根据一个或多个列对结果集进行分组;
- GROUP BY语法限制
- 在GROUP BY中select_expr的字段:要么是GROUP BY分组的字段;要么是被聚合函数应用的字段。原因是避免出现一个字段多个值的歧义。
- 分组字段出现select_expr中,一定没有歧义,因为就是基于该字段分组的,同一组中必相同。
- 被聚合函数应用的字段,也没歧义,因为聚合函数的本质就是多进一出,最终返回一个结果。
--根据state州进行分组 统计每个州有多少个县county
select state, count(county) as total_county from t_usa_covid19 group by state;
-- 根据state州进行分组 统计每个州有多少个县county并计算死亡人数总和
select state,count(county) as total_county, sum(deaths) as total_deaths from t_usa_covid19 group by state;
HAVING过滤语句
- 在SQL中增加HAVING子句原因是,WHERE关键字无法与聚合函数一起使用。
- HAVING子句可以让我们筛选分组后的各组数据,并且可以在Having中使用聚合函数,因为此时where,group by已经执行结束,结果集已经确定
--统计2021-01-28死亡病例数大于10000的州
--先where分组前过滤,再进行group by分组, 分组后每个分组结果集确定 再使用having过滤
select state,sum(deaths) as deaths_cnts from t_usa_covid19 where count_date = "2021-01-28" group by state having sum(deaths) > 10000;
--这样写更好 即在group by的时候聚合函数已经作用得出结果 having直接引用结果过滤 不需要再单独计算一次了
select state,sum(deaths) as deaths_cnts from t_usa_covid19 where count_date = "2021-01-28" group by state having deaths_cnts> 10000;
ORDER BY升降序语句
--根据确诊病例数升序排序 查询返回结果(默认就是asc升序)
select * from t_usa_covid19 order by cases;
select * from t_usa_covid19 order by cases asc;
--根据死亡病例数倒序排序 查询返回加州每个县的结果
select * from t_usa_covid19 where state = "California" order by cases desc;
LIMIT限制语句
- LIMIT用于限制SELECT语句返回的行数。
- LIMIT接受一个或两个数字参数,这两个参数都必须是非负整数常量。
- 第一个参数指定要返回的第一行的偏移量(从 Hive 2.0.0开始),第二个参数指定要返回的最大行数。当给出单个参数时,它代表最大行数,并且偏移量默认为0。
--没有限制返回2021.1.28 加州的所有记录,返回结果集的前5条
select * from t_usa_covid19 where count_date = "2021-01-28" and state ="California" limit 5;
--返回结果集从第3行开始 共3行
select * from t_usa_covid19 where count_date = "2021-01-28" and state ="California" limit 2,3;
SELECT执行顺序
- 顺序:from > where > group(含聚合)> having >order > select。
以上是关于Hive DML常见操作的主要内容,如果未能解决你的问题,请参考以下文章
打怪升级之小白的大数据之旅(六十四)<Hive旅程第五站:DML基本操作>
打怪升级之小白的大数据之旅(六十四)<Hive旅程第五站:DML基本操作>