在 Bigquery 中为多个 CSV 文件自动创建表

Posted

技术标签:

【中文标题】在 Bigquery 中为多个 CSV 文件自动创建表【英文标题】:Autocreate tables in Bigquery for multiple CSV files 【发布时间】:2021-08-08 15:16:26 【问题描述】:

每当使用 python 中的云功能将文件上传到存储桶中时,我想在 Bigquery 中自动生成表。

例如,如果将 sample1.csv 文件上传到存储桶,那么将在 Bigquery 中创建一个 sample1 表。 如何使用 Python 使用云功能自动化它我尝试使用以下代码但能够生成 1 个表并且所有数据都附加到该表中,如何继续

def hello_gcs(event, context):
    from google.cloud import bigquery
    # Construct a BigQuery client object.
    client = bigquery.Client()

    # TODO(developer): Set table_id to the ID of the table to create.
    table_id = "test_project.test_dataset.test_Table"

    job_config = bigquery.LoadJobConfig(
    autodetect=True,
    skip_leading_rows=1,
    # The source format defaults to CSV, so the line below is optional.
    source_format=bigquery.SourceFormat.CSV,
    )
    uri = "gs://test_bucket/*.csv"

    load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
    )  # Make an API request.

    load_job.result()  # Waits for the job to complete.

    destination_table = client.get_table(table_id)  # Make an API request.
    print("Processing file: file['name'].")

【问题讨论】:

【参考方案1】:

听起来你需要做三件事:

    从您收到的通知事件中提取 CSV 文件/对象的名称以触发您的函数。

    更新示例代码中的table_id,以根据您在第一步中提取的文件名设置表名。

    更新示例代码中的uri 以仅使用单个文件作为输入。如所写,您的示例尝试将数据从 所有 GCS 中匹配的 CSV 对象加载到表中。

【讨论】:

@Daemon 您能否分享一下您正在加载 uri 中仅单个文件作为输出。像这样:# TODO(developer): 将 table_id 设置为要创建的表的 ID。 table_id = event['name'] job_config = bigquery.LoadJobConfig( autodetect=True, skip_leading_rows=1, # 源格式默认为CSV,所以下面一行是可选的。source_format=bigquery.SourceFormat.CSV, ) uri = "gs ://test_bucket/event['name'].csv"

以上是关于在 Bigquery 中为多个 CSV 文件自动创建表的主要内容,如果未能解决你的问题,请参考以下文章

将多个文件从 Cloud Storage 导入 BigQuery 的命令

Google-BigQuery - CSV 文件的架构解析

每次在 Google Cloud Storage 上上传 CSV 时如何触发自动更新 Google BigQuery 数据集

如何在 Google bigquery 中为多个动态表创建授权视图?

BigQuery - 通过应用脚本上传带有模式自动检测的 csv

我如何在 R 中为多个产品做自动 arima?