spark连接hive

Posted 天天好心情

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark连接hive相关的知识,希望对你有一定的参考价值。

1 环境

hadoop2.7.3

apache-hive-2.1.1-bin

spark-2.1.0-bin-hadoop2.6

jdk1.8

 

2 配置文件

在hive-site.xml中配置mysql数据库连接。

cp apache-hive-2.1.1-bin/conf/hive-site.xml  ./spark-2.1.0-bin-hadoop2.6/conf/

cp apache-hive-2.1.1-bin/lib/mysql-connector-java-5.1.40-bin.jar ./spark-2.1.0-bin-hadoop2.6/jars

 

3 启动

启动hadoop : ./hadoop-2.7.3/sbin/start-all.sh

启动mysql :  service mysql start

启动hive :  ./apache-hive-2.1.1-bin/bin/hive

启动spark : ./spark-2.1.0-bin-hadoop2.6/bin/spark-sql 验证是否正常连接hive,查询语法同hive一致。 (i.e. show tables;)

      或者 ./spark-2.1.0-bin-hadoop2.6/bin/spark-shell 运行scala程序

 

以上是关于spark连接hive的主要内容,如果未能解决你的问题,请参考以下文章

Spark之HiveSupport连接(spark-shell和IDEA)

Spark 上的 Hive 不返回聚合或连接查询的结果

通过 Spark 的 Hive JDBC 连接(Nullpointer 异常)

本地Spark连接远程集群Hive(Scala/Python)

Spark-SQL连接Hive

Spark 连接hive,启动spark-shell报错:Error creating transactional connection factory