Spark:数据集中的四舍五入
Posted
技术标签:
【中文标题】Spark:数据集中的四舍五入【英文标题】:Spark: Round to Decimal in Dataset 【发布时间】:2018-05-07 20:07:43 【问题描述】:我有一个如下所示的数据集,在 DataFrame 的情况下,我可以轻松四舍五入到小数点后 2 位 但只是想知道在使用类型化数据集时是否有更简单的方法来做同样的事情。
这是我的代码 sn-p:
import org.apache.spark.sql.DataFrame, Dataset
import org.apache.spark.sql.expressions.scalalang.typed.sum => typedSum
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types.DecimalType
case class Record(BOOK: String,ID: String,CCY: String,AMT: Double)
def getDouble(num: Double) = BigDecimal(num).setScale(2, BigDecimal.RoundingMode.HALF_UP).toDouble
val ds = Seq(
("ALBIBC","1950363","USD",2339055.7945),
("ALBIBC","1950363","USD",78264623778.813345),
("ALBIBC","1950363","USD",45439055.222),
("ALBIBC","1950363","EUR",746754759055.343),
("ALBIBC","1950363","EUR",343439055.88780),
).toDS("BOOK","ID","CCY","AMT")
Dataframe 方式产生以下输出:
val df: DataFrame = data.groupBy('BOOK,'ID,'CCY).agg(sum('AMT).cast(DecimalType(38,2)).as("Balance"))
df.show()
+------+-------+---+---------------+
| BOOK| ID|CCY| Balance|
+------+-------+---+---------------+
|ALBIBC|1950363|USD| 78312401889.83|
|ALBIBC|1950363|EUR|747098198111.23|
+------+-------+---+---------------+
如果是数据集,我将如何将余额四舍五入到小数点后 2 位?
val sumBalance = typedSum[Record](_.AMT).as[Double].name("Balance")
val ds = data.groupByKey(thor => (thor.BOOK, thor.ID, thor.CCY)).agg(sumBalance.name("Balance"))
.mapcase(key,value) => (key._1,key._2,key._3,getDouble(value))
ds.show()
+------+-------+---+------------------+
| _1| _2| _3| _4|
+------+-------+---+------------------+
|ALBIBC|1950363|USD| 7.831240188983E10|
|ALBIBC|1950363|EUR|7.4709819811123E11|
+------+-------+---+------------------+
我可以采用数据框的方式,但在使用数据集时只是想知道? 请对此提出任何建议。
谢谢
【问题讨论】:
【参考方案1】:您的错误是转换回Double
。浮点表示cannot represent all possible numbers。
将您的函数重新定义(并可能重命名)为:
def getDouble(num: Double) = BigDecimal(num).setScale(
2, BigDecimal.RoundingMode.HALF_UP
)
例子:
Seq(7.831240188983E10, 7.4709819811123E11).toDS.map(getDouble).show
// +---------------+
// | value|
// +---------------+
// | 78312401889.83|
// |747098198111.23|
// +---------------+
【讨论】:
以上是关于Spark:数据集中的四舍五入的主要内容,如果未能解决你的问题,请参考以下文章