#IT明星不是梦#Hive面试总结

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了#IT明星不是梦#Hive面试总结相关的知识,希望对你有一定的参考价值。

1、Hive导出数据有几种方式?如何导出数据

(1)insert

导出本地:

insert overwrite local directory ‘本地路径‘ select * from 表名;

导出到HDFS:

insert overwrite directory ‘hdfs路径‘ select * from 表名;

(2)hadoop命令

hdfs dfs -get /user/hive/warehouse/student/student/txt /opt/bigdata/data

(3)Bash shell

$bin/hive -e "select * from b"

(4)export导出hdfs

export table default.student to ‘hdfs路径‘

2、将一个表的数据按照指定的分隔符(@)导出一各文件

insert overwrite local directory ‘本地路径‘ rom format delimited fields terminated by ‘@‘ select * from 表名;

3、分区和分桶的区别

分区:

是指按照数据表的某列或这某些列分为多个区,区从形式来讲可以理解为文件夹,比如我们要收集某个大型网站的日志数据,一个网站每天的日志数据存在同一张表上,由于每天回生成大量的数据,导数数据表的内容过于巨大,在查询的时候权标扫描耗费的资源非常多。可以按照日期对数据进行分区,不同日期的数据存放在不同的分区在,查询时只要指定分区字段的值就可以直接从该分区进行查找。

分桶:

分桶是相对于分区进行更细粒度的划分,分桶将整个数据内容按照某列属性hash值进行划分,如果按照name属性分为3个桶,就是对name属性值进行hash值对3取模,按照取模结果对数据进行分桶。取模结果为0的数据记录存放在到一个文件.....取模为2的数据存放在一个文件。

总结:

分区就是在HDFS上进行分目录,分桶就是分文件。

4、将数据直接上传到分区目录(hdfs)上,让分区表和数据产生骨关联有些方式

方案一:上传数据后修复

dfs -mkdir -p 分区目录

dfs -put 分区目录

msck repair table 表名

方案二:上传数据后添加分区

dfs -mkdir -p 分区目录

dfs -put 分区目录

alter table 表名 add partition();

提示:

这里我们如果将分新的分区上传到hdfs上,因为hive没有对应的元数据所示是无法查询的,所以我们要进行表的修复或者新添加分区。

5、桶表是否可以通过直接load将数据导入

不可以,因为load数据的话hdfs只会有一个文件无法完成分桶的小效果,分桶和mapreduce分区是一样的道理,所以我们要借助中间表进行导入数据。

6、Hive分区是否越多越好

(1)如果有过多的分区,由于底层是存储在hdfs上,HDFS只用于存储大文件,而非小文件,疑问过多的分区会增加namenode的负担

(2)hive会转化为mapreduce,mapreduce会转化为多个task,过多的小文件的话,每个文件一个task,每个task一个JVM实例,JVM的开启会降低系统的效率

7、什么情况下Hive可以避免进行MapReduce

hive为了执行效率,简单的查询,就是知识select,不带count,sum,group by,都不走map/reduce直接读取hdfs目录中的文件进行过滤,也就是本地模式。

(1)直接查询数据不会进行MapReduce

select * from employee;

(2)查询语句中的过滤条件只是区分字段的情况下不会进行MapReduce

select * from order_partition where month = ‘2019-03‘

(3)设置属性set.hive.exec.model.local.auto = true;hive还是会尝试使用本地模式

8、order by,sort by,distribute by ,cluster by区别

(1)order by会对给定的数据进行全局排序不管来多少数据,都启动一个reducer来处理

(2)sort by是局部排序,sort by 会根据数据量的大小启动一个到多个reducer工作,会在进行reduce之前为每个reducer都产生一个排序文件

(3)distribute by控制map结果的分发,将具有相同字段的map输出分发到reduce节点上去。

9、聚合函数是否可以写在order by 后面?

不可以

原因是执行顺序,order by的执行顺序在select之后,所一需要使用重新定义的列名进行排序。

提示:理解sql的执行顺序更加有利于写sql

(1)from

(2)join
(3)on
(4)where
(5)select
(6)group by
(7)having
(8)order by
(9)limit

10、级联求和

1、需求

访客 月份 访问次数
A 2015-01 5
A 2015-01 15
B 2015-01 5
A 2015-01 8
B 2015-01 12
A 2015-01 2
A 2015-01 12
A 2015-02 13
B 2015-02 6
B 2015-02 5
B 2015-02 7

2、需要输出报表

访客 月份 月访问统计 累计访问统计
A 2015-01 33 33
A 2015-02 10 43
B 2015-01 15 15
B 2015-02 20 35

3、实现步骤

(1)创建一个表

create table t_access_time(
username string,
month string,
salary int
)
row format delimited fields by ‘,‘

(2)准备数据

A,2015-01,5
A,2015-01,15
B,2015-01,5
B,2015-01,25
A,2015-01,5
A,2015-02,12
A,2015-02,5
B,2015-02,5
B,2015-02,5
B,2015-02,5

(3)导入数据

load data local inpath ‘/opt/bigdata2.7/access.log‘ into table t_access_time

(4)第一步,先求个用户月总金额

select username,sum(salary) as salary from t_access_time group by username,month;

(5)第二步,将月总金额表 自己和自己join(自join)

select A.,B. from
(select username,month,sum(salary) as salary from t_access_time group by username,month) A
iner join
(select username,month,sum(salary) as salary from t_access_time group by username,month) B
on A.username=B.username
where B.month<=A.month;

(6)第三步,从上一步的结果尽心分组查询,分组的字段是a.username,a.month,求月累计值,将b.month<=b.month的所有b.salary求和既可。

select A.username,A.month,max(A.salary) as salary,sum(B.salary) as accumulate
from
(select username,month,sum(salary) as salary from t_access_time group by username,month) A
iner join
(select username,month,sum(salary) as salary from t_access_time group by username,month) B
on A.username=B.username
where B.month<=A.month
group by A.username,A.month
order by A.username,A.month;

以上是关于#IT明星不是梦#Hive面试总结的主要内容,如果未能解决你的问题,请参考以下文章

# IT明星不是梦 #远程办公协同工具大合集

# IT明星不是梦 # Ceph持久化存储为k8s应用提供存储方案

#IT明星不是梦#利用Python进行网站日志分析

#IT明星不是梦#Hadoop整合Hbase案例详解

# IT明星不是梦 # MySQL高可用集群之MMM

#IT明星不是梦#Java14不得不知的5个新功能