在 Databricks 中设置驱动程序内存配置

Posted

技术标签:

【中文标题】在 Databricks 中设置驱动程序内存配置【英文标题】:Spark set driver memory config in Databricks 【发布时间】:2020-02-18 07:54:15 【问题描述】:

我正在研究 Azure 数据块。我的驱动节点和工作节点规格是:14.0 GB 内存、4 核、0.75 DBU Standard_DS3_v2。

我的 pyspark 笔记本因 Java 堆空间错误而失败。我在网上查了一下,一个建议是增加驱动程序内存。我正在尝试在笔记本中使用以下 conf 参数

spark.conf.get("spark.driver.memory")

获取驱动程序内存。但是我的笔记本单元失败并出现错误。

java.util.NoSuchElementException: spark.driver.memory

知道如何检查驱动程序内存并更改其值吗?

【问题讨论】:

我没有使用过数据砖环境,但我认为你可以实际检查 spark 设置,你应该在那里找到默认的堆设置。 【参考方案1】:

您可以在 Databricks 上设置集群时设置 spark 配置。当您创建集群并展开“高级选项”-菜单时,您可以看到有一个“Spark Config”部分。在此字段中,您可以设置所需的配置。

有关更多信息,您可以随时查看 Azure Databricks 的文档page。

【讨论】:

谢谢!如何检查驱动程序内存是否设置为所需值? 转到集群 -> 选择您的新集群 -> 单击“驱动程序日志”选项卡 -> 检查您的 log4j 日志。通常它们应该是一个条目,上面写着“INFO SparkContext:Spark 配置:”。下面是您所有的 conf 设置。 @Kas1 如果这个回答解决了你的问题,请采纳。

以上是关于在 Databricks 中设置驱动程序内存配置的主要内容,如果未能解决你的问题,请参考以下文章

使用文件选择器在图像 UI 元素中设置图片

如何在c#中设置应用程序设置而不保存[重复]

在休眠配置文件中设置 HSQLDB 数据类型?

在Windows7系统中设置虚拟内存大小

databricks spark sql复制到不加载数据

在 iOS 应用程序中设置配置文件的最佳方法