如何提高具有数组列的 DataFrame 的 Spark SQL 查询性能?

Posted

技术标签:

【中文标题】如何提高具有数组列的 DataFrame 的 Spark SQL 查询性能?【英文标题】:How to improve Spark SQL query performance over DataFrame that has array columns? 【发布时间】:2019-12-25 05:49:00 【问题描述】:

假设我有两个数据框df1df2,它们有很多数组类型的列。一些列可以有null 值。

df1.createOrReplaceTempView("temp1")
df2.createOrReplaceTempView("temp2")

我正在使用LATERAL VIEW EXPLODE 来展平数组类型列。以下是我用来查询数据帧的示例 Spark SQL 语句。由于LATERAL VIEW EXPLODE,此查询似乎存在性能问题。

SELECT tab1.id AS country, tab2.city_lve AS city FROM
(SELECT id, language_lve, population_lve FROM temp1
LATERAL VIEW EXPLODE(language) EXPLODED_NAMES AS language_lve
LATERAL VIEW EXPLODE(population) EXPLODED_NAMES AS population_lve
WHERE language_lve IS NOT NULL AND population_lve IS NOT NULL)
AS tab1
JOIN
(SELECT id, city_lve, link_lve FROM temp2
LATERAL VIEW EXPLODE(city) EXPLODED_NAMES AS city_lve
LATERAL VIEW EXPLODE(link) EXPLODED_NAMES AS link_lve
WHERE city_lve IS NOT NULL AND link_lve IS NOT NULL)
AS tab2 ON (tab2.link_lve = tab1.language_lve)

是否有任何高效的 Spark SQL 语句来查询数据帧?

【问题讨论】:

【参考方案1】:

Explode会解决你的问题

以下是使用它的不同问题的示例

https://***.com/a/44418598/1461187

【讨论】:

我已经在我的 Spark SQL 语句中使用了Explode。我正在寻找更好的解决方案。

以上是关于如何提高具有数组列的 DataFrame 的 Spark SQL 查询性能?的主要内容,如果未能解决你的问题,请参考以下文章

循环并合并具有相同索引、相同列的 DataFrame(但是每个 DataFrame 有几列唯一)

在 Scala 中使用来自另一个没有数组列的 DataFrame 的数组类型列创建 Spark DataFrame 的有效方法是啥?

如何在 pyspark 中验证 Dataframe 的架构(列的编号和名称)?

按日期排序 Spark DataFrame 列的数组

合并两个具有重叠 MultiIndex 列的 DataFrame

为啥在具有一级索引的 MultiIndex 列的 pandas DataFrame 中表现不同?