Spark 笛卡尔积中的唯一对

Posted

技术标签:

【中文标题】Spark 笛卡尔积中的唯一对【英文标题】:Spark Unique pair in cartesian product 【发布时间】:2016-05-04 12:27:45 【问题描述】:

我有这个:

In [1]:a = sc.parallelize([a,b,c])
In [2]:a.cartesian(a).collect()
Out[3]: [(a, a), (a, b), (a, c), (b, a), (c, a), (b, b), (b, c), (c, b), (c, c)]

我想要以下结果:

In [1]:a = sc.parallelize([1,2,3])
In [2]:a.cartesianMoreInteligent(a).collect()
Out[3]: [(a, a), (a, b), (a, c), (b, b), (b, c), (c, c)]

因为我的微积分返回一个对称矩阵(相关性)。 实现这一目标的最佳方法是什么? (无循环) 对于 a,b 和 c 可以是任何东西,甚至是元组。

【问题讨论】:

【参考方案1】:

不确定python语法,但在scala中你可以写:

a.cartesian(a).filter case (a,b) => a <= b .collect()

我的猜测是在 python 中它会是这样的:

a.cartesian(a).filter(lambda a, b: a <= b).collect()

【讨论】:

对不起,我的示例有点超出范围,我目前使用字符串并列出无法订购它们

以上是关于Spark 笛卡尔积中的唯一对的主要内容,如果未能解决你的问题,请参考以下文章

在笛卡尔积中,元数与元组个数是相同的意思吗

MySQL:

sql join 的语句怎么写?

sql joins

mysql_数据查询_连接查询

Spark RDD 笛卡尔积