从 Google Cloud 存储读取 csv 到 pandas 数据框

Posted

技术标签:

【中文标题】从 Google Cloud 存储读取 csv 到 pandas 数据框【英文标题】:Read csv from Google Cloud storage to pandas dataframe 【发布时间】:2018-08-27 16:21:43 【问题描述】:

我正在尝试将 Google Cloud Storage 存储桶上的 csv 文件读取到 panda 数据帧中。

import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline
from io import BytesIO

from google.cloud import storage

storage_client = storage.Client()
bucket = storage_client.get_bucket('createbucket123')
blob = bucket.blob('my.csv')
path = "gs://createbucket123/my.csv"
df = pd.read_csv(path)

它显示了这个错误信息:

FileNotFoundError: File b'gs://createbucket123/my.csv' does not exist

我做错了什么,我找不到任何不涉及 google datalab 的解决方案?

【问题讨论】:

【参考方案1】:

更新

从 pandas 0.24 版开始,read_csv 支持直接从 Google Cloud Storage 读取。只需像这样提供指向存储桶的链接:

df = pd.read_csv('gs://bucket/your_path.csv')

read_csv 然后将使用gcsfs 模块来读取数据帧,这意味着它必须被安装(否则你会得到一个指向缺少依赖项的异常)。

为了完整起见,我留下了其他三个选项。

自制代码 gcsfs 黎明

我将在下面介绍它们。

困难的方法:自己动手编写代码

我编写了一些方便的函数来从 Google 存储中读取数据。为了使其更具可读性,我添加了类型注释。如果您碰巧在 Python 2 上,只需删除这些代码即可。

假设您已获得授权,它同样适用于公共和私人数据集。在这种方法中,您无需先将数据下载到本地驱动器。

使用方法:

fileobj = get_byte_fileobj('my-project', 'my-bucket', 'my-path')
df = pd.read_csv(fileobj)

代码:

from io import BytesIO, StringIO
from google.cloud import storage
from google.oauth2 import service_account

def get_byte_fileobj(project: str,
                     bucket: str,
                     path: str,
                     service_account_credentials_path: str = None) -> BytesIO:
    """
    Retrieve data from a given blob on Google Storage and pass it as a file object.
    :param path: path within the bucket
    :param project: name of the project
    :param bucket_name: name of the bucket
    :param service_account_credentials_path: path to credentials.
           TIP: can be stored as env variable, e.g. os.getenv('GOOGLE_APPLICATION_CREDENTIALS_DSPLATFORM')
    :return: file object (BytesIO)
    """
    blob = _get_blob(bucket, path, project, service_account_credentials_path)
    byte_stream = BytesIO()
    blob.download_to_file(byte_stream)
    byte_stream.seek(0)
    return byte_stream

def get_bytestring(project: str,
                   bucket: str,
                   path: str,
                   service_account_credentials_path: str = None) -> bytes:
    """
    Retrieve data from a given blob on Google Storage and pass it as a byte-string.
    :param path: path within the bucket
    :param project: name of the project
    :param bucket_name: name of the bucket
    :param service_account_credentials_path: path to credentials.
           TIP: can be stored as env variable, e.g. os.getenv('GOOGLE_APPLICATION_CREDENTIALS_DSPLATFORM')
    :return: byte-string (needs to be decoded)
    """
    blob = _get_blob(bucket, path, project, service_account_credentials_path)
    s = blob.download_as_string()
    return s


def _get_blob(bucket_name, path, project, service_account_credentials_path):
    credentials = service_account.Credentials.from_service_account_file(
        service_account_credentials_path) if service_account_credentials_path else None
    storage_client = storage.Client(project=project, credentials=credentials)
    bucket = storage_client.get_bucket(bucket_name)
    blob = bucket.blob(path)
    return blob

gcsfs

gcsfs 是“用于 Google 云存储的 Pythonic 文件系统”。

使用方法:

import pandas as pd
import gcsfs

fs = gcsfs.GCSFileSystem(project='my-project')
with fs.open('bucket/path.csv') as f:
    df = pd.read_csv(f)

黎明

Dask“为分析提供高级并行性,为您喜爱的工具实现大规模性能”。当您需要在 Python 中处理大量数据时,它非常棒。 Dask 试图模仿pandas API 的大部分内容,使其易于新手使用。

这里是read_csv

使用方法:

import dask.dataframe as dd

df = dd.read_csv('gs://bucket/data.csv')
df2 = dd.read_csv('gs://bucket/path/*.csv') # nice!

# df is now Dask dataframe, ready for distributed processing
# If you want to have the pandas version, simply:
df_pd = df.compute()

【讨论】:

添加到@LukaszTracewski,我发现fs_gcsfs 比gcsfs 更健壮。将存储桶对象传递给 BytesIO 对我有用。 @JohnAndrews 这超出了这个问题的范围,但 AFAIK read_excel 现在的工作方式与 read_csv 相同。根据这个github.com/pandas-dev/pandas/issues/19454read_*已经实现了。 gcsfs 不错!如果连接到安全的 GCS 存储桶,请参阅如何添加您的凭据 gcsfs.readthedocs.io/en/latest/#credentials 我已经测试过工作 谢谢。这使BytesIO() 更简单,我正在下载到该路径,然后将其删除。【参考方案2】:

另一种选择是使用 TensorFlow,它可以从 Google Cloud Storage 进行流式读取:

from tensorflow.python.lib.io import file_io
with file_io.FileIO('gs://bucket/file.csv', 'r') as f:
  df = pd.read_csv(f)

使用 tensorflow 还为您提供了一种方便的方法来处理文件名中的通配符。例如:

将通配符 CSV 读入 Pandas

以下代码会将所有与特定模式(例如:gs://bucket/some/dir/train-*)匹配的 CSV 读入 Pandas 数据帧:

import tensorflow as tf
from tensorflow.python.lib.io import file_io
import pandas as pd

def read_csv_file(filename):
  with file_io.FileIO(filename, 'r') as f:
    df = pd.read_csv(f, header=None, names=['col1', 'col2'])
    return df

def read_csv_files(filename_pattern):
  filenames = tf.gfile.Glob(filename_pattern)
  dataframes = [read_csv_file(filename) for filename in filenames]
  return pd.concat(dataframes)

用法

DATADIR='gs://my-bucket/some/dir'
traindf = read_csv_files(os.path.join(DATADIR, 'train-*'))
evaldf = read_csv_files(os.path.join(DATADIR, 'eval-*'))

【讨论】:

【参考方案3】:

截至pandas==0.24.0,如果您安装了gcsfs,则本机支持:https://github.com/pandas-dev/pandas/pull/22704。

在正式发布之前,您可以使用pip install pandas==0.24.0rc1 进行试用。

【讨论】:

pip install pandas>=0.24.0【参考方案4】:

我正在查看这个问题,不想费心安装另一个库 gcsfs,它在文档中字面意思是 This software is beta, use at your own risk... 但我发现了一个很棒的我想在这里发布的解决方法,以防这对其他人有帮助,仅使用 google.cloud 存储库和一些本机 python 库。函数如下:

import pandas as pd
from google.cloud import storage
import os
import io
os.environ['GOOGLE_APPLICATION_CREDENTIALS'] = 'path/to/creds.json'


def gcp_csv_to_df(bucket_name, source_file_name):
    storage_client = storage.Client()
    bucket = storage_client.bucket(bucket_name)
    blob = bucket.blob(source_blob_name)
    data = blob.download_as_string()
    df = pd.read_csv(io.BytesIO(data))
    print(f'Pulled down file from bucket bucket_name, file name: source_file_name')
    return df

此外,虽然它超出了本问题的范围,但如果您想使用类似的功能将 pandas 数据帧上传到 GCP,以下是执行此操作的代码:

def df_to_gcp_csv(df, dest_bucket_name, dest_file_name):
    storage_client = storage.Client()
    bucket = storage_client.bucket(dest_bucket_name)
    blob = bucket.blob(dest_file_name)
    blob.upload_from_string(df.to_csv(), 'text/csv')
    print(f'DataFrame uploaded to bucket dest_bucket_name, file name: dest_file_name')

希望这有帮助!我知道我肯定会使用这些功能。

【讨论】:

在第一个示例中,变量 source_blob_name 将是存储桶内文件的路径? 没错!所以它是 path/to/file.csv【参考方案5】:

read_csv 不支持gs://

来自documentation:

字符串可以是 URL。有效的 URL 方案包括 http、ftp、s3、 和档案。对于文件 URL,需要一个主机。例如,本地 文件可以是文件://localhost/path/to/table.csv

您可以download the file 或fetch it as a string 来操纵它。

【讨论】:

新版本做0.24.2【参考方案6】:

三种方式访问GCS中的文件:

    正在下载客户端库(为您准备的) 在 Google Cloud Platform Console 中使用 Cloud Storage 浏览器 使用 gsutil,这是一种用于处理 Cloud Storage 中文件的命令行工具。

使用第 1 步,setup GSC 进行您的工作。之后您必须:

import cloudstorage as gcs
from google.appengine.api import app_identity

然后您必须指定 Cloud Storage 存储桶名称并创建读/写函数以访问您的存储桶:

你可以找到剩下的读/写教程here:

【讨论】:

【参考方案7】:

从 Pandas 1.2 开始,将文件从 google 存储加载到 DataFrame 中非常容易。

如果您在本地机器上工作,它看起来像这样:

df = pd.read_csv('gcs://your-bucket/path/data.csv.gz',
                 storage_options="token": "credentials.json")

它是作为令牌添加的,来自谷歌的 credentials.json 文件。

如果您在谷歌云上工作,请执行以下操作:

df = pd.read_csv('gcs://your-bucket/path/data.csv.gz',
                 storage_options="token": "cloud")

【讨论】:

【参考方案8】:

使用pandas 和google-cloud-storage python 包:

首先,我们将一个文件上传到存储桶,以获得一个完整的示例:

import pandas as pd
from sklearn.datasets import load_iris

dataset = load_iris()

data_df = pd.DataFrame(
    dataset.data,
    columns=dataset.feature_names)

data_df.head()
Out[1]: 
   sepal length (cm)  sepal width (cm)  petal length (cm)  petal width (cm)
0                5.1               3.5                1.4               0.2
1                4.9               3.0                1.4               0.2
2                4.7               3.2                1.3               0.2
3                4.6               3.1                1.5               0.2
4                5.0               3.6                1.4               0.2

将 csv 文件上传到存储桶(需要设置 GCP 凭据,请参阅here 了解更多信息):

from io import StringIO
from google.cloud import storage

bucket_name = 'my-bucket-name' # Replace it with your own bucket name.
data_path = 'somepath/data.csv'

# Get Google Cloud client
client = storage.Client()

# Get bucket object
bucket = client.get_bucket(bucket_name)

# Get blob object (this is pointing to the data_path)
data_blob = bucket.blob(data_path)

# Upload a csv to google cloud storage
data_blob.upload_from_string(
    data_df.to_csv(), 'text/csv')

现在我们在存储桶上有一个 csv,通过传递文件的内容来使用 pd.read_csv

# Read from bucket
data_str = data_blob.download_as_text()

# Instanciate dataframe
data_dowloaded_df = pd.read_csv(StringIO(data_str))

data_dowloaded_df.head()
Out[2]: 
   Unnamed: 0  sepal length (cm)  ...  petal length (cm)  petal width (cm)
0           0                5.1  ...                1.4               0.2
1           1                4.9  ...                1.4               0.2
2           2                4.7  ...                1.3               0.2
3           3                4.6  ...                1.5               0.2
4           4                5.0  ...                1.4               0.2

[5 rows x 5 columns]

当将此方法与pd.read_csv('gs://my-bucket/file.csv') 方法进行比较时,我发现此处描述的方法更明确地表明client = storage.Client() 是负责身份验证的方法(在使用多个凭据时可能非常方便)。此外,如果您在来自 Google Cloud Platform 的资源上运行此代码,则 storage.Client 已经完全安装,而对于 pd.read_csv('gs://my-bucket/file.csv'),您需要安装允许 pandas 访问 Google 存储的包 gcsfs

【讨论】:

【参考方案9】:

如果我正确理解了您的问题,那么也许此链接可以帮助您为您的 read_csv() 功能获得更好的 URL

https://cloud.google.com/storage/docs/access-public-data

【讨论】:

【参考方案10】:

如果加载压缩文件,仍然需要使用import gcsfs

在 pd 中尝试过pd.read_csv('gs://your-bucket/path/data.csv.gz')版本=> 0.25.3 出现以下错误,

/opt/conda/anaconda/lib/python3.6/site-packages/pandas/io/parsers.py in _read(filepath_or_buffer, kwds)
    438     # See https://github.com/python/mypy/issues/1297
    439     fp_or_buf, _, compression, should_close = get_filepath_or_buffer(
--> 440         filepath_or_buffer, encoding, compression
    441     )
    442     kwds["compression"] = compression

/opt/conda/anaconda/lib/python3.6/site-packages/pandas/io/common.py in get_filepath_or_buffer(filepath_or_buffer, encoding, compression, mode)
    211 
    212     if is_gcs_url(filepath_or_buffer):
--> 213         from pandas.io import gcs
    214 
    215         return gcs.get_filepath_or_buffer(

/opt/conda/anaconda/lib/python3.6/site-packages/pandas/io/gcs.py in <module>
      3 
      4 gcsfs = import_optional_dependency(
----> 5     "gcsfs", extra="The gcsfs library is required to handle GCS files"
      6 )
      7 

/opt/conda/anaconda/lib/python3.6/site-packages/pandas/compat/_optional.py in import_optional_dependency(name, extra, raise_on_missing, on_version)
     91     except ImportError:
     92         if raise_on_missing:
---> 93             raise ImportError(message.format(name=name, extra=extra)) from None
     94         else:
     95             return None

ImportError: Missing optional dependency 'gcsfs'. The gcsfs library is required to handle GCS files Use pip or conda to install gcsfs.

【讨论】:

您不需要import gcsfs,但确实必须安装gcsfs 依赖项。我编辑了我的答案以确保它是清晰的。

以上是关于从 Google Cloud 存储读取 csv 到 pandas 数据框的主要内容,如果未能解决你的问题,请参考以下文章

使用 .Net 库将 CSV 文件上传到 Google Cloud Storage

我们可以请求从 Google Cloud Storage 到 BigQuery 的多少并发上传?

GCS - 从 Google Cloud Storage 直接读取文本文件到 python

Data Studio Community Connector - 如何从 Google Cloud Storage 中的 CSV 文件中获取数据?

是否可以从 Google Drive 自动将内容上传到 Cloud Storage?

如何在 Google Colab 中读取 csv 到数据框