在 sparklyr 中禁用 hive 支持

Posted

技术标签:

【中文标题】在 sparklyr 中禁用 hive 支持【英文标题】:Disable hive support in sparklyr 【发布时间】:2017-05-23 23:53:52 【问题描述】:

有没有办法?

就像在 SparkR 中一样:

sparkR.session(master="local[*]", enableHiveSupport=FALSE)

【问题讨论】:

【参考方案1】:

您可以通过将 SQL 目录实现设置为 in-memory 来禁用 sparklyr 中的 Hive。

# get the default config
conf <- spark_config()
# set the catalog implementation, defaults to hive, but we want it in-memory
conf$spark.sql.catalogImplementation <- "in-memory"
sc <- spark_connect(master = "local", config = conf)

【讨论】:

【参考方案2】:

如issue #2460 所述,该选项是在破坏了版本 1.2.0 上的Ron's answer 解决方案后在 sparklyr 1.3.0 中引入的。

library(sparklyr)

config <- spark_config()
config$sparklyr.connect.enablehivesupport <- FALSE

sc <- spark_connect(master = "local", config = config)

【讨论】:

以上是关于在 sparklyr 中禁用 hive 支持的主要内容,如果未能解决你的问题,请参考以下文章

为啥 R lubridate::duration 数据类型使用 sparklyr 转换为 spark 中的字符?

如何在 Liferay 7 中禁用 SennaJS/SPA?

为某些路由禁用 vue-router?或者如何运行 SPA 后端和非 SPA 前端?

如何在 Flutter Web 上禁用 SPA

hive使用spark引擎的几种情况

Sparklyr - 在 spark-submit 中更改日志级别