使用 SparklyR“选择”从 Spark 数组列中提取元素

Posted

技术标签:

【中文标题】使用 SparklyR“选择”从 Spark 数组列中提取元素【英文标题】:Extract elements from Spark array column using SparklyR "select" 【发布时间】:2021-11-07 06:52:43 【问题描述】:

我在 SparklyR 接口中有一个 Spark 数据框,我正在尝试从数组列中提取元素。

df <- copy_to(sc, data.frame(A=c(1,2),B=c(3,4)))            ## BUILD DATAFRAME
dfnew <- df %>% mutate(C=Array(A,B)) %>% select(C)          ## CREATE ARRAY COL


> dfnew                                                     ## VIEW DATAFRAME
# Source: spark<?> [?? x 1]                       
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>


dfnew %>% sdf_schema()                                      ## VERIFY COLUMN TYPE IS ARRAY
$C$name
[1] "C"

$C$type
[1] "ArrayType(DoubleType,true)"

我可以用“mutate”提取一个元素...

dfnew %>% mutate(myfirst_element=C[[1]]) 

# Source: spark<?> [?? x 2]
  C         myfirst_element
  <list>              <dbl>
1 <dbl [2]>               3
2 <dbl [2]>               4

但我想用“select”动态提取一个元素。但是,所有尝试都只会返回完整的列:

> dfnew %>% select("C"[1]) 
# Source: spark<?> [?? x 1]
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]]) 
# Source: spark<?> [?? x 1]
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]][1]) 
# Source: spark<?> [?? x 1]
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>
> dfnew %>% select("C"[[1]][[1]]) 
# Source: spark<?> [?? x 1]
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>

我也尝试过使用“sdf_select”,但没有成功:

> dfnew %>% sdf_select("C"[[1]][1])
# Source: spark<?> [?? x 1]
  C        
  <list>   
1 <dbl [2]>
2 <dbl [2]>

在 PySpark 中,您可以显式访问元素,例如科尔(“C”)[1];在 Scala 中,您可以使用 getItem 或 element_at;在 SparkR 中,您还可以使用 element_at。但是有人知道 SparklyR 设置中的解决方案吗?提前感谢您的帮助。

【问题讨论】:

【参考方案1】:

想到了以下解决方案。

library(tidyverse)

df = tibble(group = 1:5) %>%
  mutate(C = map(group, ~array(c(1,2),c(3,4)))) 

df
# # A tibble: 5 x 2
# group C            
# <int> <list>       
#   1     1 <dbl [3 x 4]>
#   2     2 <dbl [3 x 4]>
#   3     3 <dbl [3 x 4]>
#   4     4 <dbl [3 x 4]>
#   5     5 <dbl [3 x 4]>

df$C
# [[1]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# [3,]    1    2    1    2
# 
# [[2]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# [3,]    1    2    1    2
# 
# [[3]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# [3,]    1    2    1    2
# 
# [[4]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# [3,]    1    2    1    2
# 
# [[5]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# [3,]    1    2    1    2



df %>% pull(C) %>% map(~.x[1,])
# [[1]]
# [1] 1 2 1 2
# 
# [[2]]
# [1] 1 2 1 2
# 
# [[3]]
# [1] 1 2 1 2
# 
# [[4]]
# [1] 1 2 1 2
# 
# [[5]]
# [1] 1 2 1 2

df %>% pull(C) %>% map(~.x[,2])
# [[1]]
# [1] 2 1 2
# 
# [[2]]
# [1] 2 1 2
# 
# [[3]]
# [1] 2 1 2
# 
# [[4]]
# [1] 2 1 2
# 
# [[5]]
# [1] 2 1 2

df %>% pull(C) %>% map(~.x[1:2,])
# [[1]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# 
# [[2]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# 
# [[3]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# 
# [[4]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1
# 
# [[5]]
# [,1] [,2] [,3] [,4]
# [1,]    1    2    1    2
# [2,]    2    1    2    1

我想这就是你要找的。 当然,这也适用于任何大小的任何数组。

【讨论】:

感谢您的解决方案!我应该澄清一下我特别想使用“选择”,这样我就可以提取其他列以及数组元素。例如选择(“A”,“C”[0])。看起来“拉”只对抓取单列有用。 恐怕select 命令将无法实现您的目标。这可以通过预先使用一个小的突变来完成,但恐怕这也可能不会让您满意。 谢谢你,马雷克!我接受您的回答 - 在 SparklyR 中使用“选择”可能无法做到这一点。 感谢您的接受。您可以通过创建自己的返回所选列的函数来获得所需的效果。你自己的特别slect。但是,我不知道付出的努力是否值得。

以上是关于使用 SparklyR“选择”从 Spark 数组列中提取元素的主要内容,如果未能解决你的问题,请参考以下文章

将 sparklyr 连接到远程 spark 连接

sparklyr 更改所有列名 spark 数据框

为啥 R lubridate::duration 数据类型使用 sparklyr 转换为 spark 中的字符?

将 spark 数据帧转换为 sparklyR 表“tbl_spark”

如何使用 sparklyr 为 Apache Spark 实现 Stanford CoreNLP 包装器?

使用 sparklyr 时无法在本地 Spark 连接中加载 .csv 数据