Databricks 中的 Spark 版本

Posted

技术标签:

【中文标题】Databricks 中的 Spark 版本【英文标题】:Spark Version in Databricks 【发布时间】:2021-03-19 12:52:28 【问题描述】:

如何确定我在 Databricks 上运行的 Spark 版本?我想试试考拉,但是当我尝试import databricks.koalas 时,它会返回一个"No module named databricks" 错误消息。当我尝试from databricks import koalas 时,它返回相同的消息。

【问题讨论】:

有什么理由不从 pypi 安装考拉? 我不知道 pypi。我看到的所有参考资料都指向“从数据砖进口考拉”。我刚试过“from pypi import koalas”,它返回“no module pypi found”。 @karthik 你能详细说明你的问题吗? 可以从集群配置中验证spark的版本。 【参考方案1】:

考拉仅包含在 Databricks Runtime 7.x 及更高版本中。它不包含在 DBR 6.x 中。如果单击笔记本顶部的下拉菜单,您可以在 UI 中找到 Databricks Runtime 的版本。

您可以在Databricks Runtime release notes查看考拉的版本。

【讨论】:

以上是关于Databricks 中的 Spark 版本的主要内容,如果未能解决你的问题,请参考以下文章

Databricks/Spark SQL 中的反透视表

如何计算 Spark SQL(Databricks)中表中的列数?

Apache Spark开发介绍

使用多列更新 Apache Spark / Databricks 中的表

读取 csv 文件时 MS Databricks Spark 中绝对 URI 中的相对路径

通过 Python 中的 Databricks api 读取 Databricks 表?