python将数据帧作为csv写入天蓝色存储帐户

Posted

技术标签:

【中文标题】python将数据帧作为csv写入天蓝色存储帐户【英文标题】:python write a dataframe as csv to azure storage account 【发布时间】:2021-12-07 05:56:20 【问题描述】:

我能够按照here 的描述从 Azure 存储容器读取 csv 文件。

from azure.storage.blob import BlobClient
import pandas as pd
from io import StringIO

sas_url = "<your_blob_sas url>"
blob_client = BlobClient.from_blob_url(sas_url)
blob_data = blob_client.download_blob()
df = pd.read_csv(StringIO(blob_data.content_as_text()))
print(df)

有人可以帮助编写将数据写入存储容器的 python 代码吗?

我有容器设置,带有 BLOB SAS URL

我没有账户名、密钥或任何其他信息,here

【问题讨论】:

【参考方案1】:

看看BlobClient API。既然您已经知道如何实例化客户端,那就是:

blob_client.upload_blob(df.to_csv(index=False))

【讨论】:

我用下面的代码得到 ResesourceExistsError,sas_url = "https....." blob_client = BlobClient.from_blob_url(sas_url) blob_data = blob_client.upload_blob(region.to_csv(index=False))跨度> 再次访问 API 文档并添加 overwrite=True。并注意其他有用的选项,如编码、超时......根据您的需要调整它。

以上是关于python将数据帧作为csv写入天蓝色存储帐户的主要内容,如果未能解决你的问题,请参考以下文章

将 Python3 中的数据帧写入 Netezza

将 csv 文件作为浮点数读取到 pandas 数据帧

将大型 Spark 数据帧从数据块写入 csv 失败

如何将二进制数据作为图像写入 azure blob 存储 c#

将大型 Spark 数据帧作为镶木地板写入 s3 存储桶

python 从 azure 存储帐户读取