使用SparkSQL HiveContext“INSERT INTO ...”

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用SparkSQL HiveContext“INSERT INTO ...”相关的知识,希望对你有一定的参考价值。

我正在尝试使用我的HiveContext运行一个insert语句,如下所示:

hiveContext.sql('insert into my_table (id, score) values (1, 10)')

1.5.2 Spark SQL Documentation没有明确说明是否支持,尽管它支持“动态分区插入”。

这导致堆栈跟踪像

AnalysisException: 
Unsupported language features in query: insert into my_table (id, score) values (1, 10)
TOK_QUERY 0, 0,20, 0
  TOK_FROM 0, -1,20, 0
    TOK_VIRTUAL_TABLE 0, -1,20, 0
      TOK_VIRTUAL_TABREF 0, -1,-1, 0
        TOK_ANONYMOUS 0, -1,-1, 0
      TOK_VALUES_TABLE 1, 13,20, 41
        TOK_VALUE_ROW 1, 15,20, 41
          1 1, 16,16, 41
          10 1, 19,19, 44
  TOK_INSERT 1, 0,-1, 12
    TOK_INSERT_INTO 1, 0,11, 12
      TOK_TAB 1, 4,4, 12
        TOK_TABNAME 1, 4,4, 12
          my_table 1, 4,4, 12
      TOK_TABCOLNAME 1, 7,10, 22
        id 1, 7,7, 22
        score 1, 10,10, 26
    TOK_SELECT 0, -1,-1, 0
      TOK_SELEXPR 0, -1,-1, 0
        TOK_ALLCOLREF 0, -1,-1, 0

scala.NotImplementedError: No parse rules for:
 TOK_VIRTUAL_TABLE 0, -1,20, 0
  TOK_VIRTUAL_TABREF 0, -1,-1, 0
    TOK_ANONYMOUS 0, -1,-1, 0
  TOK_VALUES_TABLE 1, 13,20, 41
    TOK_VALUE_ROW 1, 15,20, 41
      1 1, 16,16, 41
      10 1, 19,19, 44

有没有其他方法可以插入支持的Hive表?

答案

可以使用DataFrameWriter上的append模式将数据附加到Hive表。

data = hc.sql("select 1 as id, 10 as score")
data.write.mode("append").saveAsTable("my_table")

这给出了与插入相同的结果。

另一答案

我遇到了同样的问题(Spark 1.5.1),并尝试了不同的版本。

特定

sqlContext.sql("create table my_table(id int, score int)")

唯一有效的版本看起来像这样:

sqlContext.sql("insert into table my_table select t.* from (select 1, 10) t")
sqlContext.sql("insert into       my_table select t.* from (select 2, 20) t")
另一答案

接受的答案saveAsTable失败了我与AnalysisException(我不明白为什么)。对我有用的是:

data = hc.sql("select 1 as id, 10 as score")
data.write.mode("append").insertInto("my_table")

我正在使用Spark v2.1.0。

另一答案

您尝试执行数据文件格式不能执行的操作,因此Unsupported language features in query异常。

许多数据文件格式是一次写入的,不支持ACID操作。

如果需要,Apache ORC支持ACID操作。

相反,您可以使用分区将数据拆分为文件夹(/ data / year = 2017 / month = 10 ....),在这里您可以将数据追加/插入数据湖。

另一答案

尝试这个hiveContext.sql("insert into table my_table select 1, 10")如果你还没有将你的动态分区模式更改为nonstrict,你必须这样做hiveCtx.setConf("hive.exec.dynamic.partition.mode", "nonstrict")

另一答案

当你第一次这样做

$data.write.mode("append").saveAsTable("my_table")

你应该用"append"替换"overwrite",然后,你可以使用"append"

以上是关于使用SparkSQL HiveContext“INSERT INTO ...”的主要内容,如果未能解决你的问题,请参考以下文章

hive kerberos sparksql怎么创建hivecontext

HiveContext 与火花 sql

带有 HIVE 的 SparkSQL

Spark SQL(通过 HiveContext 进行 Hive 查询)总是创建 31 个分区

Spark SQL:HiveContext 不要忽略标头

使用 Spark/Java Maven 项目获取 HiveContext