如何计算 Spark SQL(Databricks)中表中的列数?
Posted
技术标签:
【中文标题】如何计算 Spark SQL(Databricks)中表中的列数?【英文标题】:How to count number of columns in a table in Spark SQL (Databricks)? 【发布时间】:2020-04-28 17:21:32 【问题描述】:我在编写语句来计算 Spark SQL 中的列数时遇到问题。我尝试使用信息模式和 table.columns,但两者似乎都不适用于 Spark SQL。有人有什么建议吗?
【问题讨论】:
【参考方案1】:以下是您可以添加几行来计算 Spark SQL 中的列数,
Pyspark 解决方案:
df_cont = spark.creatDataframe() // use right funtion to create dataframe based on source
print("Number of columns:"+str(len(df_cont.columns)))
Scala 解决方案:
val df_cont = spark.creatDataframe() // use right funtion to create dataframe based on source
val length = df_cont.columns.length
println("Number of columns:"+length)
【讨论】:
以上是关于如何计算 Spark SQL(Databricks)中表中的列数?的主要内容,如果未能解决你的问题,请参考以下文章
如何在 Spark Databricks 中注册 SQL 函数
Databricks/Spark SQL - 如何在地图类型字段中获取数据
如何使用 Databricks 使用服务原理通过 spark 数据框将批量数据插入 Sql Server 数据仓库