sparksql与hive整合

Posted Hello_BeautifulWorld

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sparksql与hive整合相关的知识,希望对你有一定的参考价值。

参考文献:

http://blog.csdn.net/stark_summer/article/details/48443147

 

 

hive配置

编辑 $HIVE_HOME/conf/Hive-site.xml,增加如下内容:

 

<property>
  <name>hive.metastore.uris</name>
  <value>thrift://master:9083</value>
  <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>

 

 

 

启动hive metastore

启动 metastore:

hive   --service metastore &

 

 

 

查看  metastore:

jobs

 

 

关闭 metastore:

$kill %1

kill %jobid,1代表job id

 

spark配置

将 $HIVE_HOME/conf/hive-site.xml copy或者软链 到 $SPARK_HOME/conf/
将 $HIVE_HOME/lib/mysql-connector-java-5.1.12.jar copy或者软链到$SPARK_HOME/lib/

copy或者软链$SPARK_HOME/lib/ 是方便spark standalone模式使用

 

 

 

 

 

启动spark-sql

 

 

 

 

 

 

 

 

 

注:

如果没有启动  hive metastore  则会:

 

以上是关于sparksql与hive整合的主要内容,如果未能解决你的问题,请参考以下文章

3.sparkSQL整合Hive

sparkSql和hive的整合之mysql报错

九十四Spark-SparkSQL(整合Hive)

spark-2.0.0与hive-1.2.1整合

Spark: Spark-sql 读hbase

Spark: Spark-sql 读hbase