无法使用 callUDF() 调用 UDF - Spark Java

Posted

技术标签:

【中文标题】无法使用 callUDF() 调用 UDF - Spark Java【英文标题】:Not able to call a UDF with callUDF() - Spark Java 【发布时间】:2017-08-02 13:58:54 【问题描述】:

我在注册后尝试使用 callUDF 调用 udf。但是,函数 validateNumber() 没有被调用。

代码如下所示:

public Dataset<Row> sampleCallUdf(Dataset<Row> dataset) 

    UDF2<Long, Long, String> validateNumber = (UDF2<Long, Long, String>) SampleClass::validateNumber;
    UDFRegistration udfRegister = CONFIG.getSparkSession().udf();
    udfRegister.register("validateNumber", validateNumber, DataTypes.StringType);

    return dataset.withColumn("rejection_reason",
                    coalesce(
                            callUDF("validateNumber", column("cookie"), column("session"))));
    

    public static String validateNumber(Long cookie, Long session) 
           System.out.println("Into validateNumber function");
           if(cookie != 0)
             return "correct";
           else
             return "incorrect";
           
    

我正在尝试的输入是:

 Dataset<Row> input = spark().createDataFrame(Arrays.asList(
                RowFactory.create("28/05/2017 00:12:34", 0L, -2864001245604480000L, "abc" ,"90.202.190.106", 123, "abc", "xyz", "mno"),
                RowFactory.create("28/05/2017 00:12:34", 2345678L, 2864001245604480000L, "abc" ,"90.202.190.106", 123, "abc", "xyz", "mno")), TEMP_TABLE);

问题是,它甚至没有在 validateNumber() 函数中打印 sysout 语句。

【问题讨论】:

对我来说工作得很好。你能检查一下你的数据集中的值吗? @abaghel - 它进入了 validateNumber() 吗? 或者,如果您可以让我知道您使用的是什么输入。 【参考方案1】:

请在下面找到示例程序。

public class SparkUDF 
    public static void main(String[] args) throws Exception 
    SparkSession spark = SparkSession
            .builder()
            .appName("SparkUDF")
            .master("local[*]") 
            .getOrCreate();
    //data
    List<Tuple2<Long, Long>> inputList = new ArrayList<Tuple2<Long, Long>>();
    inputList.add(new Tuple2<Long, Long>(111l, 10011l));
    inputList.add(new Tuple2<Long, Long>(0l, 20022l));
    //Dataset
    Dataset<Row> ds = spark.createDataset(inputList, Encoders.tuple(Encoders.LONG(), Encoders.LONG())).toDF("cookie", "session");
    //udf
    UDF2<Long, Long, String> validateNumber = (UDF2<Long, Long, String>) SparkUDF::validateNumber;
    spark.udf().register("validateNumber", validateNumber, DataTypes.StringType);
    Dataset<Row> ds1 = ds.withColumn("rejection_reason",coalesce(callUDF("validateNumber", col("cookie"), col("session"))));
    ds1.show();
    spark.stop();


public static String validateNumber(Long cookie, Long session) 
    if (cookie != 0) 
        return "correct";
     else 
        return "incorrect";
    
  

你会得到如下输出。

+------+-------+----------------+
|cookie|session|rejection_reason|
+------+-------+----------------+
|   111|  10011|         correct|
|     0|  20022|       incorrect|
+------+-------+----------------+

【讨论】:

以上是关于无法使用 callUDF() 调用 UDF - Spark Java的主要内容,如果未能解决你的问题,请参考以下文章

java,如何在spark 1.4.1中调用UDF [重复]

AnalysisException callUDF() inside withColumn()

使用 withColumn 和 callUDF 将列附加到数据框

SparkSQL - 与多重比较相比,isIn()的性能

无法在 spark sql 中注册 UDF

MySQL UDF 插件无法执行 Shell 命令(使用 system() 或 execl())