Hive安装配置

Posted 萌褚ll

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hive安装配置相关的知识,希望对你有一定的参考价值。

镜像下载、域名解析、时间同步请点击 阿里云开源镜像站

前提条件:

1、 安装好hadoop2.7.3伪分布式环境(Linux环境);

2、安装好mysql5.7(推荐使用) (Windows环境) ,允许mysql远程连接

3、并新建一个名为hive的数据库

安装步骤:

1、官网下载hive安装文件,下载地址:mirrors.aliyun.com/apache/hive/

hadoop2.x需要下载hive-2.x.x,下载版本:apache-hive-2.3.6-bin.tar.gz

2、将hive安装文件上传到Linux系统中~/soft目录下,解压:

tar -zxvf apache-hive-2.3.6-bin.tar.gz

创建软连接:ln -s apache-hive-2.3.6-bin hive

配置环境变量:vi ~/.bashrc

使配置生效:

配置hive-site.xml

注意:

1. javax.jdo.option.ConnectionURL属性值的192.168.1.11为Windows的IP地址,请注意修改!

2. javax.jdo.option.ConnectionUserName值的root为数据库的用户名,注意修改!

3. javax.jdo.option.ConnectionPassword的值数据库的密码,注意修改!

将MySQL驱动文件拷贝到hive安装目录的lib下

下载MySQL驱动文件:https://mvnrepository.com/artifact/mysql/mysql-connector-java/5.1.46

将驱动文件上传到Linux,hive/lib目录下

初始化MySQL:schematool -dbType mysql -initSchema

看到"schemaTool completed"为正确完成初始化:

在启动hive之前,先启动hadoop:start-all.sh

启动hive:hive

本文转自:https://blog.csdn.net/qq_42891999/article/details/123756966

以上是关于Hive安装配置的主要内容,如果未能解决你的问题,请参考以下文章

Hive_on_Spark安装配置详解

HIVE 2.3.4 本地安装与部署 (Ubuntu)

Hive数据分析实战演练

如何安装Tableau并连接CDH的Hive/Impala

搭建hadoop+spark+hive环境(配置安装hive)

Hive安装与配置详解