从 Azure Databricks 将数据写入 Azure Blob 存储

Posted

技术标签:

【中文标题】从 Azure Databricks 将数据写入 Azure Blob 存储【英文标题】:Writing Data to Azure Blob Storage from Azure Databricks 【发布时间】:2020-11-15 19:37:53 【问题描述】:

我能够将 Azure Blob 容器挂载到我的 Databricks DBFS 并且还能够读取数据。在编写时,我能够从 databricks 中看到挂载点中的文件,但是,它不会反映在 blob 存储中。有人可以帮忙吗?

【问题讨论】:

【参考方案1】:

你在保存数据框吗?

df.write
.option("header", "true")
.format("com.databricks.spark.csv")
.save("/mnt/result/someData.csv")

【讨论】:

【参考方案2】:

您的路径可能不正确。 使用dbutils.fs.mounts() 检查安装路径并确保它在您的保存路径中。还要检查您的保存路径是否以dbfs:/ 而不是/dbfs/ 开头。 不要犹豫,分享您的脚本。

【讨论】:

以上是关于从 Azure Databricks 将数据写入 Azure Blob 存储的主要内容,如果未能解决你的问题,请参考以下文章

Azure Databricks 将 JSON 数据写入 Parquet 文件引发错误:TypeError:无法推断类型的架构

从 Azure Synapse 中的 Apache Spark 将数据写入 SQL DW

Databricks - 写入 Azure Synapse 时出错

Azure Databricks - 将 Parquet 文件写入策划区域

如何使用 Azure databricks 通过 ADLS gen 2 中的多个工作表读取和写入 excel 数据

将数据写入 Azure 专用 SQL 池中的特定分区