Scala:如何获得矩阵的均值、方差和协方差?
Posted
技术标签:
【中文标题】Scala:如何获得矩阵的均值、方差和协方差?【英文标题】:Scala: how to get the mean and variance and covariance of a matrix? 【发布时间】:2022-01-21 08:38:06 【问题描述】:我是 scala 的新手,我迫切需要一些关于以下问题的指导:
我有一个如下所示的数据框(某些元素可能为 NULL)
val dfDouble = Seq(
(1.0, 1.0, 1.0, 3.0),
(1.0, 2.0, 0.0, 0.0),
(1.0, 3.0, 1.0, 1.0),
(1.0, 4.0, 0.0, 2.0)).toDF("m1", "m2", "m3", "m4")
dfDouble.show
+---+---+---+---+
| m1| m2| m3| m4|
+---+---+---+---+
|1.0|1.0|1.0|3.0|
|1.0|2.0|0.0|0.0|
|1.0|3.0|1.0|1.0|
|1.0|4.0|0.0|2.0|
+---+---+---+---+
我需要从此数据框中获取以下统计信息:
-
包含每列平均值的向量(某些元素可能为 NULL,我想仅使用非 NULL 元素计算平均值);我还想按名称引用向量的每个元素,例如,vec_mean["m1_mean"] 将返回第一个元素
vec_mean: Vector(m1_mean, m2_mean, m3_mean, m4_mean)
一个方差-协方差矩阵,即 (4 x 4),其中对角线是 var(m1), var(m2),...,
,非对角线是 cov(m1,m2), cov(m1,m3) ...
在这里,我还想只使用方差中的非 NULL 元素-协方差计算
包含每列非空数的向量
vec_n: Vector(m1_n, m2_n, m3_n, m4_n)
-
包含每列标准差的向量
vec_stdev: Vector(m1_stde, m2_stde, m3_stde, m4_stde)
在 R 中,我会将所有内容都转换为矩阵,然后剩下的就很简单了。但是在scala中,我对矩阵不熟悉,而且显然有多种类型的矩阵,令人困惑(DenseMatrix、IndexedMatrix等)
已编辑:如果数据框的内容是 Double 或 Int,显然会有所不同。将元素修改为双重
根据建议的答案使用以下命令并且它有效!
val rdd = dfDouble0.rdd.map
case a: Row => (0 until a.length).foldRight(Array[Double]())((b, acc) =>
val k = a.getAs[Double](b)
if(k == null)
acc.+:(0.0)
else acc.+:(k)).map(_.toDouble)
【问题讨论】:
【参考方案1】:您可以使用 Spark RowMatrix。它具有此类操作,例如使用每行作为观察值、均值、方差等来计算协方差矩阵……您唯一需要知道的是如何从 Dataframe 构建它。
事实证明,Spark 中的 Dataframe 包含一个模式,表示可以存储在其中的信息类型,而不仅仅是浮点数数组。所以第一件事就是把这个DF转换成一个向量的RDD(在这种情况下是密集向量)。
拥有这个 DF:
val df = Seq(
(1, 1, 1, 3),
(1, 2, 0, 0),
(1, 3, 1, 1),
(1, 4, 0, 2),
(1, 5, 0, 1),
(2, 1, 1, 3),
(2, 2, 1, 1),
(2, 3, 0, 0)).toDF("m1", "m2", "m3", "m4")
将其转换为 RDD Row[DenseVector] 表示。一定有几十种方法可以做到这一点。一种可能是:
val rdd = df.rdd.map
case a: Row =>
(0 until a.length).foldRight(Array[Int]())((b, acc) =>
val k = a.getAs[Int](b)
if(k == null) acc.+:(0) else acc.+:(k)
).map(_.toDouble)
正如您在 IDE 中看到的,推断的类型是 RDD[Array[Float]。现在将其转换为 RDD[DenseVector]。就这么简单:
val rowsRdd = rdd.map(Vectors.dense(_))
现在你可以构建你的矩阵了:
val mat: RowMatrix = new RowMatrix(rowsRdd)
获得矩阵后,您可以轻松计算每列的不同矩阵:
println("Mean: " + mat.computeColumnSummaryStatistics().mean)
println("Variance: " + mat.computeColumnSummaryStatistics().variance)
它给出:
Mean: [1.375,2.625,0.5,1.375]
Variance:
[0.26785714285714285,1.9821428571428572,0.2857142857142857,1.4107142857142858]
您可以在文档中阅读有关 Spark 功能和这些分布式类型的更多信息:https://spark.apache.org/docs/latest/mllib-data-types.html#data-types-rdd-based-api
您还可以计算协方差矩阵、进行 SVD 等...
【讨论】:
您必须将 getAs[Int] 更改为 getAs[Double] 用您的问题更新问题。它将更具可读性 请注意,使用 foldRight 您可以创建一个 int 数组。如果您更改内部表示,getAs[Double] 会告诉编译器您收集双精度,但您告诉编译器将要创建的数组是整数,所以更改 foldRight(Array[Int]() ) 到 foldRight(Array[Double]()) 而不是 0 把 0.0。否则编译器会推断一个 int 欢迎,这就是我们来这里的目的以上是关于Scala:如何获得矩阵的均值、方差和协方差?的主要内容,如果未能解决你的问题,请参考以下文章