spark自定义分区器

Posted guoyu1

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark自定义分区器相关的知识,希望对你有一定的参考价值。

1、spark中默认的分区器:

  Spark目前支持Hash分区和Range分区,用户也可以自定义分区,Hash分区为当前的默认分区,Spark中分区器直接决定了RDD中分区的个数、RDD中每条数据经过Shuffle过程属于哪个分区和Reduce的个数。

  • 只有Key-Value类型的RDD才有分区器的,非Key-Value类型的RDD分区器的值是None

  • 每个RDD的分区ID范围:0~numPartitions-1,决定这个值是属于那个分区的2、

 

参考博客:https://www.jianshu.com/p/a10d92bbeacf

以上是关于spark自定义分区器的主要内容,如果未能解决你的问题,请参考以下文章

Spark自定义分区(Partitioner)

Xamarin Forms Shell 如何使用自定义渲染器自定义选项卡

Google 跟踪代码管理器自定义变量返回未定义

flowable设计器自定义自己的人员选择器

Spark自定义排序与分区

joomla 菜单管理器自定义组件