如何使用模式匹配从 pyspark 数据框中删除行?

Posted

技术标签:

【中文标题】如何使用模式匹配从 pyspark 数据框中删除行?【英文标题】:How to remove rows from pyspark dataframe using pattern matching? 【发布时间】:2019-05-12 20:59:05 【问题描述】:

我有一个从 CSV 文件读取的 pyspark 数据帧,该文件有一个包含十六进制值的值列。

| date     | part  | feature | value"       |
|----------|-------|---------|--------------|
| 20190503 | par1  | feat2   | 0x0          |
| 20190503 | par1  | feat3   | 0x01         |
| 20190501 | par2  | feat4   | 0x0f32       |
| 20190501 | par5  | feat9   | 0x00         |
| 20190506 | par8  | feat2   | 0x00f45      |
| 20190507 | par1  | feat6   | 0x0e62300000 |
| 20190501 | par11 | feat3   | 0x000000000  |
| 20190501 | par21 | feat5   | 0x03efff     |
| 20190501 | par3  | feat9   | 0x000        |
| 20190501 | par6  | feat5   | 0x000000     |
| 20190506 | par5  | feat8   | 0x034edc45   |
| 20190506 | par8  | feat1   | 0x00000      |
| 20190508 | par3  | feat6   | 0x00000000   |
| 20190503 | par4  | feat3   | 0x0c0deffe21 |
| 20190503 | par6  | feat4   | 0x0000000000 |
| 20190501 | par3  | feat6   | 0x0123fe     |
| 20190501 | par7  | feat4   | 0x00000d0    |

要求是删除包含类似于 0x0、0x00、0x000 等值的行,这些值在 value 列中计算为十进制 0(零)。 '0x' 之后的 0 的数量因数据帧而异。通过模式匹配移除是我尝试过的方式,但没有成功。

myFile = sc.textFile("file.txt")
header = myFile.first()

fields = [StructField(field_name, StringType(), True) for field_name in header.split(',')]

myFile_header = myFile.filter(lambda l: "date" in l)
myFile_NoHeader = myFile.subtract(myFile_header)

myFile_df = myFile_NoHeader.map(lambda line: line.split(",")).toDF(schema)

## this is the pattern match I tried 
result = myFile_df.withColumn('Test', regexp_extract(col('value'), '(0x)(0\1*\1*)',2 ))
result.show()

我使用的另一种方法是使用 udf:

def convert_value(x):
    return int(x,16)

在pyspark中使用这个udf给我

ValueError: int() 基数为 16 的无效文字:值

【问题讨论】:

【参考方案1】:

我不太了解你的正则表达式,但是当你想匹配所有包含 0x0(+任意数量的零)的字符串时,你可以使用^0x0+$。使用正则表达式过滤可以使用rlike 实现,波浪号否定匹配。

l = [('20190503', 'par1', 'feat2', '0x0'),
('20190503', 'par1', 'feat3', '0x01'),
('20190501', 'par2', 'feat4', '0x0f32'),
('20190501', 'par5', 'feat9', '0x00'),
('20190506', 'par8', 'feat2', '0x00f45'),
('20190507', 'par1', 'feat6', '0x0e62300000'),
('20190501', 'par11', 'feat3', '0x000000000'),
('20190501', 'par21', 'feat5', '0x03efff'),
('20190501', 'par3', 'feat9', '0x000'),
('20190501', 'par6', 'feat5', '0x000000'),
('20190506', 'par5', 'feat8', '0x034edc45'),
('20190506', 'par8', 'feat1', '0x00000'),
('20190508', 'par3', 'feat6', '0x00000000'),
('20190503', 'par4', 'feat3', '0x0c0deffe21'),
('20190503', 'par6', 'feat4', '0x0000000000'),
('20190501', 'par3', 'feat6', '0x0123fe'),
('20190501', 'par7', 'feat4', '0x00000d0')]

columns = ['date', 'part', 'feature', 'value']

df=spark.createDataFrame(l, columns)

expr = "^0x0+$"
df.filter(~ df["value"].rlike(expr)).show()

输出:

+--------+-----+-------+------------+ 
|    date| part|feature|       value| 
+--------+-----+-------+------------+ 
|20190503| par1|  feat3|        0x01| 
|20190501| par2|  feat4|      0x0f32| 
|20190506| par8|  feat2|     0x00f45| 
|20190507| par1|  feat6|0x0e62300000| 
|20190501|par21|  feat5|    0x03efff| 
|20190506| par5|  feat8|  0x034edc45| 
|20190503| par4|  feat3|0x0c0deffe21| 
|20190501| par3|  feat6|    0x0123fe| 
|20190501| par7|  feat4|   0x00000d0| 
+--------+-----+-------+------------+

【讨论】:

谢谢 Cronoik。这是完美的答案。

以上是关于如何使用模式匹配从 pyspark 数据框中删除行?的主要内容,如果未能解决你的问题,请参考以下文章

PySpark-如何从此数据框中过滤行

如何在 pySpark 中有效地从字符串数据框中替换多个正则表达式模式的所有实例?

如何从pyspark中的数据框中选择一系列行

从 pyspark 数据框中删除空列

从 pyspark 数据框中删除第一行

Pyspark Dataframe - 如何过滤掉另一个数据框中匹配的记录?