如何计算 Spark SQL(Databricks)中表中的列数?

Posted

技术标签:

【中文标题】如何计算 Spark SQL(Databricks)中表中的列数?【英文标题】:How to count number of columns in a table in Spark SQL (Databricks)? 【发布时间】:2020-04-28 17:21:32 【问题描述】:

我在编写语句来计算 Spark SQL 中的列数时遇到问题。我尝试使用信息模式和 table.columns,但两者似乎都不适用于 Spark SQL。有人有什么建议吗?

【问题讨论】:

【参考方案1】:

以下是您可以添加几行来计算 Spark SQL 中的列数,

Pyspark 解决方案:

df_cont = spark.creatDataframe() // use right funtion to create dataframe based on source 
print("Number of columns:"+str(len(df_cont.columns)))

Scala 解决方案:

val df_cont = spark.creatDataframe() // use right funtion to create dataframe based on source 
val length = df_cont.columns.length
println("Number of columns:"+length)

【讨论】:

以上是关于如何计算 Spark SQL(Databricks)中表中的列数?的主要内容,如果未能解决你的问题,请参考以下文章

spark sql如何在databricks中创建表

如何在 Spark Databricks 中注册 SQL 函数

Databricks/Spark SQL - 如何在地图类型字段中获取数据

如何使用 Databricks 使用服务原理通过 spark 数据框将批量数据插入 Sql Server 数据仓库

如果 Databricks 或 Spark SQL 中存在表,则插入

如何从 spark sql databricks 中的临时视图或等效视图中删除?