等效于 Scala Dataset#transform 方法的 Pyspark 转换方法

Posted

技术标签:

【中文标题】等效于 Scala Dataset#transform 方法的 Pyspark 转换方法【英文标题】:Pyspark transform method that's equivalent to the Scala Dataset#transform method 【发布时间】:2017-09-15 20:52:37 【问题描述】:

Spark Scala API 有一个 Dataset#transform 方法,可以轻松链接自定义 DataFrame 转换,如下所示:

val weirdDf = df
  .transform(myFirstCustomTransformation)
  .transform(anotherCustomTransformation)

我没有看到与 pyspark in the documentation 等效的 transform 方法。

是否有 PySpark 方法来链接自定义转换?

如果没有,如何对pyspark.sql.DataFrame 类进行猴子修补以添加transform 方法?

更新

从PySpark 3.0开始,变换方法是added to PySpark。

【问题讨论】:

【参考方案1】:

实施:

from pyspark.sql.dataframe import DataFrame

def transform(self, f):
    return f(self)

DataFrame.transform = transform

用法:

spark.range(1).transform(lambda df: df.selectExpr("id * 2"))

【讨论】:

【参考方案2】:

使用 SQLTransformer 对象(或任何其他 Transformer)的 Transformer 管道是一种 Spark 解决方案,它使链接转换变得容易。例如:

from pyspark.ml.feature import SQLTransformer
from pyspark.ml import Pipeline, PipelineModel

df = spark.createDataFrame([
    (0, 1.0, 3.0),
    (2, 2.0, 5.0)
], ["id", "v1", "v2"])
sqlTrans = SQLTransformer(
    statement="SELECT *, (v1 + v2) AS v3, (v1 * v2) AS v4 FROM __THIS__")

sqlSelectExpr = SQLTransformer(statement="SELECT *, (id * 2) AS v5 FROM __THIS__")

pipeline = Pipeline(stages=[sqlTrans, sqlSelectExpr])
pipelineModel = pipeline.fit(df)
pipelineModel.transform(df).show()

当所有转换都是像上面这样的简单表达式时,另一种链接方法是使用单个 SQLTransformer 和字符串操作:

transforms = ['(v1 + v2) AS v3',
              '(v1 * v2) AS v4',
              '(id * 2) AS v5',
              ]
selectExpr = "SELECT *,  FROM __THIS__".format(",".join(transforms))
sqlSelectExpr = SQLTransformer(statement=selectExpr)
sqlSelectExpr.transform(df).show()

请记住,Spark SQL 转换可以进行优化,并且比定义为 Python 用户定义函数 (UDF) 的转换更快。

【讨论】:

以上是关于等效于 Scala Dataset#transform 方法的 Pyspark 转换方法的主要内容,如果未能解决你的问题,请参考以下文章

等效于 Java 8 中的 Scala 的 foldLeft

pyspark 等效于 Scala API 中的标志“isLocal”

什么是Scala等效于Java构建器模式?

等效于 sbt 的 maven 原型

python枚举是不是有等效的Scala?

Scala:代码仅在调试时运行(#ifdef 等效?)