Spark 是不是支持插入覆盖静态分区?

Posted

技术标签:

【中文标题】Spark 是不是支持插入覆盖静态分区?【英文标题】:Does Spark support insert overwrite static partitions?Spark 是否支持插入覆盖静态分区? 【发布时间】:2014-11-04 20:09:50 【问题描述】:

我注意到在当前的 Spark Sql 手册中不支持插入到动态分区中:

Hive 的主要功能

Spark SQL 当前不支持使用动态分区插入表。

但是,是否支持在静态分区中插入/覆盖?

【问题讨论】:

【参考方案1】:

Spark SQL 目前不支持从 spark 1.1 版本开始使用动态分区插入表

支持静态,需要在hive表位置写入数据。

【讨论】:

所以使用“插入覆盖表表名分区...”的现有 Hive 查询可以工作,对吗?抱歉,还没有要测试的环境设置。【参考方案2】:

根据release notes,Spark 1.2.0 支持动态分区插入。参考SPARK-3007。

【讨论】:

以上是关于Spark 是不是支持插入覆盖静态分区?的主要内容,如果未能解决你的问题,请参考以下文章

Hive:插入覆盖多个分区

无法从 spark sql 插入配置单元分区表

如何在 BigQuery UI 中插入覆盖分区表?

Hive动态分区与静态分区,数据插入,区别

Hive分区(静态分区+动态分区)

数据湖:Hudi与Spark整合