Spark的Join连接
Posted chenshaowei
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark的Join连接相关的知识,希望对你有一定的参考价值。
Broadcast Join
适合情况,小表和大表,小表非常小,适合传播到各个节点。
当大表小表连接时,为了避免Shuffle,我们可以将小表广播到各个节点内存,供大表连接。一定程度上牺牲了空间,避免了Shuffle。这种Join在Spark中称作Broadcast Join。(需要注意的点是广播的只能是小表)
Shuffle Hash Join
适合情况,大表和小表,小表数据量增大,广播消耗资源大,按照join key进行分区,key相同分区也一定相同。大表分区,最后将两个表的数据进行hash join。
对两张表分别按照join keys进行重分区,即shuffle,目的是为了让有相同join keys值的记录分到对应的分区中。对对应分区中的数据进行join,此处先将小表分区构造为一张hash表,然后根据大表分区中记录的join keys值拿出来进行匹配。
- 确定Build Table和Probe Table。
- 构建HashTable 依次读取小表的join key进行hash,生成的哈希表缓存在内存中。
- 扫描大表,将相同join key的数据连接起来。
Broadcast Join和Shuffle Hash Join都是HashJoin。只不过在hash join之前需要先shuffle还是先broadcast。
Sort-Merge Join
适合情况,大表和大表。
共有三步:
- shuffle阶段:将两张大表根据join key进行重新分区,两张表数据会分布到整个集群,以便分布式并行处理
- sort阶段:对单个分区节点的两表数据,分别进行排序
- merge阶段:对排好序的两张分区表数据执行join操作。join操作很简单,分别遍历两个有序序列,碰到相同join key就merge输出,否则取更小一边
数据仓库设计时最好避免大表与大表的join查询
以上是关于Spark的Join连接的主要内容,如果未能解决你的问题,请参考以下文章
spark outer join push down filer rule(spark 外连接中的下推规则)
spark outer join push down filter rule(spark 外连接中的下推规则)