Spark RDD 笛卡尔积

Posted 大数据的未来

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark RDD 笛卡尔积相关的知识,希望对你有一定的参考价值。

Spark RDD 笛卡尔积

val left  = sc.parallelize(List(1,2,3))
val right  = sc.parallelize(List(3,4,5,6))
val out = left union right //返回所有元素新的RDD //1,2,3,3,3,4,5,6
val insterstions = left intersection right //返回RDD的交集 3
val cartesian = left cartesian right //返回两个RDD的笛卡尔积 3*4

以上是关于Spark RDD 笛卡尔积的主要内容,如果未能解决你的问题,请参考以下文章

spark join 引发“检测到 INNER 连接的笛卡尔积”

为啥 Spark 认为这是一个交叉/笛卡尔连接

在 PySpark 中的文字列上检测到 INNER 连接的笛卡尔积

避免 Spark SQL 查询的笛卡尔连接

优化 spark sql 笛卡尔连接

Spark SQL中出现 CROSS JOIN 问题解决