从 Azure Databricks 将数据写入 Azure Blob 存储
Posted
技术标签:
【中文标题】从 Azure Databricks 将数据写入 Azure Blob 存储【英文标题】:Writing Data to Azure Blob Storage from Azure Databricks 【发布时间】:2020-11-15 19:37:53 【问题描述】:我能够将 Azure Blob 容器挂载到我的 Databricks DBFS 并且还能够读取数据。在编写时,我能够从 databricks 中看到挂载点中的文件,但是,它不会反映在 blob 存储中。有人可以帮忙吗?
【问题讨论】:
【参考方案1】:你在保存数据框吗?
df.write
.option("header", "true")
.format("com.databricks.spark.csv")
.save("/mnt/result/someData.csv")
【讨论】:
【参考方案2】:您的路径可能不正确。
使用dbutils.fs.mounts()
检查安装路径并确保它在您的保存路径中。还要检查您的保存路径是否以dbfs:/
而不是/dbfs/
开头。
不要犹豫,分享您的脚本。
【讨论】:
以上是关于从 Azure Databricks 将数据写入 Azure Blob 存储的主要内容,如果未能解决你的问题,请参考以下文章
Azure Databricks 将 JSON 数据写入 Parquet 文件引发错误:TypeError:无法推断类型的架构
从 Azure Synapse 中的 Apache Spark 将数据写入 SQL DW
Databricks - 写入 Azure Synapse 时出错
Azure Databricks - 将 Parquet 文件写入策划区域