Spark-sql读取hive分区表限制分区过滤条件及限制分区数量

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark-sql读取hive分区表限制分区过滤条件及限制分区数量相关的知识,希望对你有一定的参考价值。

参考技术A 在开发过程中使用spark去读取hive分区表的过程中(或者使用hive on spark、nodepad开发工具),部分开发人员未注意添加分区属性过滤导致在执行过程中加载了全量数据,引起任务执行效率低、磁盘IO大量损耗等问题

1、自定义规则CheckPartitionTable类,实现Rule

然后通过此种方法创建SparkSession
2、自定义规则CheckPartitionTable类,实现Rule,将规则类追加致Optimizer.batches: Seq[Batch]中

1、CheckPartitionTable规则执行类,需要通过引入sparkSession从而获取到引入conf;需要继承Rule[LogicalPlan];

2、通过splitPredicates方法,分离分区谓词,得到分区谓词表达式
在sql解析过程中将谓词解析为TreeNode,此处采用递归的方式获取分区谓词

3、判断是否是分区表,且是否添加分区字段

4、实现Rule的apply方法

关于spark-sql的主要执行流程及预备知识,可参照我同学的这篇博文 https://www.jianshu.com/p/4cc6797fb9ce

以上是关于Spark-sql读取hive分区表限制分区过滤条件及限制分区数量的主要内容,如果未能解决你的问题,请参考以下文章

hive的严格模式和分区

在 pyspark 中过滤 Hive 分区表

Hive 分区字段限制

Hive 限制中的最大动态分区

sparksql怎么批量删除分区

hive修改分区字段值