数据帧到 RDD[Row] 用空值替换空间

Posted

技术标签:

【中文标题】数据帧到 RDD[Row] 用空值替换空间【英文标题】:Dataframe to RDD[Row] replacing space with nulls 【发布时间】:2017-11-08 04:35:05 【问题描述】:

我正在将 Spark 数据帧转换为 RDD[Row],以便将其映射到最终模式以写入 Hive Orc 表。我想将输入中的任何空间转换为实际的null,以便配置单元表可以存储实际的null 而不是空字符串。

输入数据框(单列,用竖线分隔值):

col1
1|2|3||5|6|7|||...|

我的代码:

inputDF.rdd.
  map  x: Row => x.get(0).asInstanceOf[String].split("\\|", -1).
  map  x => Row (nullConverter(x(0)),nullConverter(x(1)),nullConverter(x(2)).... nullConverter(x(200)))


def nullConverter(input: String): String = 
  if (input.trim.length > 0) input.trim
  else null

有没有比调用 nullConverter 函数 200 次更干净的方法。

【问题讨论】:

【参考方案1】:

基于单列更新:

按照你的方法,我会做这样的事情:

inputDf.rdd.map((row: Row) => 
    val values = row.get(0).asInstanceOf[String].split("\\|").map(nullConverter)
    Row(values)
)

使您的 nullConverter 或任何其他逻辑成为 udf:

import org.apache.spark.sql.functions._
val nullConverter = udf((input: String) => 
  if (input.trim.length > 0) input.trim
  else null
)

现在,在您的 df 上使用 udf 并应用于所有列:

val convertedDf = inputDf.select(inputDf.columns.map(c => nullConverter(col(c)).alias(c)):_*)

现在,您可以执行 RDD 逻辑了。

【讨论】:

我只有一列,它的值采用管道分隔格式。我想将空格转换为 NULLS 作为值的一部分。【参考方案2】:

在转换为 RDD 之前,使用 DataFrame API 会更容易。首先,拆分数据:

val df = Seq(("1|2|3||5|6|7|8||")).toDF("col0")        // Example dataframe
val df2 = df.withColumn("col0", split($"col0", "\\|")) // Split on "|"

然后找出数组的长度:

val numCols = df2.first.getAs[Seq[String]](0).length

现在,对于数组中的每个元素,使用 nullConverter UDF,然后将其分配给它自己的列。

val nullConverter = udf((input: String) => 
  if (input.trim.length > 0) input.trim
  else null
)

val df3 = df2.select((0 until numCols).map(i => nullConverter($"col0".getItem(i)).as("col" + i)): _*)

使用示例数据框的结果:

+----+----+----+----+----+----+----+----+----+----+
|col0|col1|col2|col3|col4|col5|col6|col7|col8|col9|
+----+----+----+----+----+----+----+----+----+----+
|   1|   2|   3|null|   5|   6|   7|   8|null|null|
+----+----+----+----+----+----+----+----+----+----+

现在根据您的需要将其转换为 RDD 或继续将数据用作 DataFrame。

【讨论】:

【参考方案3】:

把dataframe转成rdd没有意义

import org.apache.spark.sql.functions._

df = sc.parallelize([
    (1, "foo bar"), (2, "foobar "), (3, "   ")
]).toDF(["k", "v"])

df.select(regexp_replace(col("*"), " ", "NULL"))

【讨论】:

以上是关于数据帧到 RDD[Row] 用空值替换空间的主要内容,如果未能解决你的问题,请参考以下文章

用空值替换空字符串

将内部文件转换为数据帧到另一个数据帧或 RDD

熊猫合并用空值填充新数据框

用空值填充文本框

如何用从一个数据帧到另一个数据帧的值替换字符串

Pyspark 将 rdd 转换为具有空值的数据帧