使用 SparklyR“选择”从 Spark 数组列中提取元素
Posted
技术标签:
【中文标题】使用 SparklyR“选择”从 Spark 数组列中提取元素【英文标题】:Extract elements from Spark array column using SparklyR "select" 【发布时间】:2021-11-07 06:52:43 【问题描述】:我在 SparklyR 接口中有一个 Spark 数据框,我正在尝试从数组列中提取元素。
df <- copy_to(sc, data.frame(A=c(1,2),B=c(3,4))) ## BUILD DATAFRAME
dfnew <- df %>% mutate(C=Array(A,B)) %>% select(C) ## CREATE ARRAY COL
> dfnew ## VIEW DATAFRAME
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
dfnew %>% sdf_schema() ## VERIFY COLUMN TYPE IS ARRAY
$C$name
[1] "C"
$C$type
[1] "ArrayType(DoubleType,true)"
我可以用“mutate”提取一个元素...
dfnew %>% mutate(myfirst_element=C[[1]])
# Source: spark<?> [?? x 2]
C myfirst_element
<list> <dbl>
1 <dbl [2]> 3
2 <dbl [2]> 4
但我想用“select”动态提取一个元素。但是,所有尝试都只会返回完整的列:
> dfnew %>% select("C"[1])
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]])
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]][1])
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]][[1]])
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
我也尝试过使用“sdf_select”,但没有成功:
> dfnew %>% sdf_select("C"[[1]][1])
# Source: spark<?> [?? x 1]
C
<list>
1 <dbl [2]>
2 <dbl [2]>
在 PySpark 中,您可以显式访问元素,例如科尔(“C”)[1];在 Scala 中,您可以使用 getItem 或 element_at;在 SparkR 中,您还可以使用 element_at。但是有人知道 SparklyR 设置中的解决方案吗?提前感谢您的帮助。
【问题讨论】:
【参考方案1】:想到了以下解决方案。
library(tidyverse)
df = tibble(group = 1:5) %>%
mutate(C = map(group, ~array(c(1,2),c(3,4))))
df
# # A tibble: 5 x 2
# group C
# <int> <list>
# 1 1 <dbl [3 x 4]>
# 2 2 <dbl [3 x 4]>
# 3 3 <dbl [3 x 4]>
# 4 4 <dbl [3 x 4]>
# 5 5 <dbl [3 x 4]>
df$C
# [[1]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
# [3,] 1 2 1 2
#
# [[2]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
# [3,] 1 2 1 2
#
# [[3]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
# [3,] 1 2 1 2
#
# [[4]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
# [3,] 1 2 1 2
#
# [[5]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
# [3,] 1 2 1 2
df %>% pull(C) %>% map(~.x[1,])
# [[1]]
# [1] 1 2 1 2
#
# [[2]]
# [1] 1 2 1 2
#
# [[3]]
# [1] 1 2 1 2
#
# [[4]]
# [1] 1 2 1 2
#
# [[5]]
# [1] 1 2 1 2
df %>% pull(C) %>% map(~.x[,2])
# [[1]]
# [1] 2 1 2
#
# [[2]]
# [1] 2 1 2
#
# [[3]]
# [1] 2 1 2
#
# [[4]]
# [1] 2 1 2
#
# [[5]]
# [1] 2 1 2
df %>% pull(C) %>% map(~.x[1:2,])
# [[1]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
#
# [[2]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
#
# [[3]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
#
# [[4]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
#
# [[5]]
# [,1] [,2] [,3] [,4]
# [1,] 1 2 1 2
# [2,] 2 1 2 1
我想这就是你要找的。 当然,这也适用于任何大小的任何数组。
【讨论】:
感谢您的解决方案!我应该澄清一下我特别想使用“选择”,这样我就可以提取其他列以及数组元素。例如选择(“A”,“C”[0])。看起来“拉”只对抓取单列有用。 恐怕select
命令将无法实现您的目标。这可以通过预先使用一个小的突变来完成,但恐怕这也可能不会让您满意。
谢谢你,马雷克!我接受您的回答 - 在 SparklyR 中使用“选择”可能无法做到这一点。
感谢您的接受。您可以通过创建自己的返回所选列的函数来获得所需的效果。你自己的特别slect
。但是,我不知道付出的努力是否值得。以上是关于使用 SparklyR“选择”从 Spark 数组列中提取元素的主要内容,如果未能解决你的问题,请参考以下文章
为啥 R lubridate::duration 数据类型使用 sparklyr 转换为 spark 中的字符?
将 spark 数据帧转换为 sparklyR 表“tbl_spark”