sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?

Posted

技术标签:

【中文标题】sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?【英文标题】:Is there are a replacement for the CONVERT function in sql (SMSS) to a similar function in Pyspark.sql. In other words is there a similar function?sql (SSMS) 中的 CONVERT 函数是否可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能? 【发布时间】:2021-07-27 04:15:03 【问题描述】:

对于下面的 SELECT 语句:

select ( Cast (( Cast(T1.partition_ AS VARCHAR(21)) + '|' 
              + T1.dataareaid_ + '|' 
              + CONVERT(VARCHAR(8), T1.ledgertransdate, 112) ) AS VARCHAR(255)) )     AS FKDATEFINANCIAL
FROM TABLE;

当我尝试使用 SqlContext 在 pyspark.sql 中执行上述 sql 语句时,我收到以下错误: AnalysisException:未定义函数:'CONVERT'。该函数既不是注册的临时函数,也不是在数据库'default'中注册的永久函数。;

换句话说, "CONVERT" 是一个 SQL Server 函数,在 Spark SQL 中它的等价物是什么?

【问题讨论】:

你能分享一下想要的输出吗? 我相信使用CONCATCAST 是您所需要的。 【参考方案1】:

convert 函数是 sqlserver 中的一种方法,您可以使用 cast 来完成同样的工作

【讨论】:

谢谢!这对我有用!

以上是关于sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?的主要内容,如果未能解决你的问题,请参考以下文章

SQL Server 函数之 日期格式化函数

SQL Server 与 T-SQL 中的 Cast 和 Convert 函数有啥区别? [复制]

我创建了一个 SQL Server 函数。现在我在 SSMS 中找不到它

CONVERT是啥函数?

SQL名称检查功能SSMS

sql中如何写函数