sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?
Posted
技术标签:
【中文标题】sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?【英文标题】:Is there are a replacement for the CONVERT function in sql (SMSS) to a similar function in Pyspark.sql. In other words is there a similar function?sql (SSMS) 中的 CONVERT 函数是否可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能? 【发布时间】:2021-07-27 04:15:03 【问题描述】:对于下面的 SELECT 语句:
select ( Cast (( Cast(T1.partition_ AS VARCHAR(21)) + '|'
+ T1.dataareaid_ + '|'
+ CONVERT(VARCHAR(8), T1.ledgertransdate, 112) ) AS VARCHAR(255)) ) AS FKDATEFINANCIAL
FROM TABLE;
当我尝试使用 SqlContext 在 pyspark.sql 中执行上述 sql 语句时,我收到以下错误: AnalysisException:未定义函数:'CONVERT'。该函数既不是注册的临时函数,也不是在数据库'default'中注册的永久函数。;
换句话说, "CONVERT" 是一个 SQL Server 函数,在 Spark SQL 中它的等价物是什么?
【问题讨论】:
你能分享一下想要的输出吗? 我相信使用CONCAT
和CAST
是您所需要的。
【参考方案1】:
convert 函数是 sqlserver 中的一种方法,您可以使用 cast 来完成同样的工作
【讨论】:
谢谢!这对我有用!以上是关于sql (SSMS) 中的 CONVERT 函数是不是可以替换为 Pyspark.sql 中的类似函数。换句话说,有没有类似的功能?的主要内容,如果未能解决你的问题,请参考以下文章
SQL Server 与 T-SQL 中的 Cast 和 Convert 函数有啥区别? [复制]