BigQuery 负载作业限制为 15 TB

Posted

技术标签:

【中文标题】BigQuery 负载作业限制为 15 TB【英文标题】:BigQuery Load Job Limitation of 15 TB 【发布时间】:2019-08-19 22:05:48 【问题描述】:

将大型数据集加载到 BigQuery 时。表大小超过 170TB。在 BigQuery 中,我们听说每个加载作业的加载限制不超过 15 TB,无论文件 zip 是 Avro 、 parquet 等。如果是,那么您能否分享任何解决方法或选项来加载如此大的容量数据?

【问题讨论】:

【参考方案1】:

查看配额页面以查找记录的限制:

https://cloud.google.com/bigquery/quotas

确实存在“每个加载作业的最大大小 - CSV、JSON、Avro、Parquet 和 ORC 的所有输入文件为 15 TB”。

但您应该能够跨多个加载作业轻松加载 170TB。或者您是在告诉我们您只有一个 170TB 的文件?

如果您可以将多个文件中的多个加载作业用于单个表,则限制为“每个表每天加载作业 - 1,000 个”。那 s 比问题所要求的大小高 2 个数量级。

【讨论】:

以上是关于BigQuery 负载作业限制为 15 TB的主要内容,如果未能解决你的问题,请参考以下文章

BigQuery 上传作业返回错误 - 有效负载部分计数错误?

如何在 Google BigQuery 中加载大文本文件

Google BigQuery Payload 大小限制为 10485760 字节

如何限制 Google Bigquery 中的作业数量 [关闭]

数据流错误 - “来源太大。限制为 5.00Ti”

BigQuery 传输与 BigQuery 负载