无法在 spark 中使用 hive 支持创建 sql 上下文

Posted

技术标签:

【中文标题】无法在 spark 中使用 hive 支持创建 sql 上下文【英文标题】:Unable to create sql context with hive support in spark 【发布时间】:2016-10-30 23:13:44 【问题描述】:

在火花 1.6 中

在 /etc/spark/conf 下创建软链接后,当我运行 spark-shell 时,它不会创建具有 hive 支持的 sql 上下文,并且 错误---显示“native snappy library not available: This version of hadoop is built without snappysupport”。

请指教这里可以做什么?

我正在尝试使用 hive 支持创建 sql 上下文,但无法这样做。

【问题讨论】:

你试过这个val hiveContext= new org.apache.spark.sql.hive.HiveContext(sc) 你试过sqlContext吗,默认情况下它带有Hive支持。 【参考方案1】:

您可以使用sqlContext 访问 Hive 表。

【讨论】:

以上是关于无法在 spark 中使用 hive 支持创建 sql 上下文的主要内容,如果未能解决你的问题,请参考以下文章

hdp3.1 hive 3.0的使用记录

无法从 spark 创建 Hive 表

Spark 分区:创建 RDD 分区但不创建 Hive 分区

无法从 impala/hive/spark sql 访问“spark 注册表”

无法通过 PySpark 访问 Hive

通过 Spark 加载的表在 Hive 中无法访问