sparksql udf自定义函数中参数过多问题的解决
Posted _harvey
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sparksql udf自定义函数中参数过多问题的解决相关的知识,希望对你有一定的参考价值。
在进行spark sql数据库操作中,常常需要一些spark系统本身不支持的函数,如获取某一列值中的字符串。
如要获取 “aaaakkkkk”中的第4-第8个字符。
针对这种需求,只有设置UDF来实现了。
如
val fun:((String,Int,Int) => String) = (args:String, k1:Int, k2:Int) => { args.substr(k1,k2)}
val sqlfunc = udf(fun)
df.withColumn("column22", sqlfunc(col("column1"), 1,3)
这样就报错。
才发现这里面由于UDF的原因,在任何函数中这个数字本身是不认的,因此需要加上lit()的命令才可以。
df.withColumn("column22", sqlfunc(col("column1"), lit(1), lit(3)),只有这样才可以实现。
df.withColumn("column22", sqlfunc(col("column1"), 1,3)
以上是关于sparksql udf自定义函数中参数过多问题的解决的主要内容,如果未能解决你的问题,请参考以下文章
Spark学习之路 (十九)SparkSQL的自定义函数UDF
Spark学习之路 (十九)SparkSQL的自定义函数UDF[转]