BigQuery - 最大数据集大小
Posted
技术标签:
【中文标题】BigQuery - 最大数据集大小【英文标题】:BigQuery - Max datasets size 【发布时间】:2013-06-11 03:15:09 【问题描述】:BigQuery 的数据集是否有最大大小(插入数据的 GB)?
我在 BigQuery 文档中找不到此问题的答案。配额政策页面讨论了上传文件的最大大小和每天加载作业的最大数量,但没有指定每个数据集或表的最大大小。
我需要知道我可以将多少数据上传到数据集以进行学术研究。
谢谢
【问题讨论】:
您的项目有多大?只是想知道 【参考方案1】:“无限”是一个大词,但 BigQuery 的优点之一是您不应该找到限制。
每日限制几乎是每个项目每天 10 PB。如果你有更多的数据,第二天继续推送,它应该不会中断。
https://developers.google.com/bigquery/docs/quota-policy#import
(在进行多 TB 导入之前,最好联系销售人员,以确保有准备好处理理论限制的物理容量)
【讨论】:
谢谢,我计算了每天相似的数据大小,但我不确定在很长一段时间内数据集的大小限制。 如果您的数据在 TB 范围内,您将没有问题。如果您的数据比这更大,BigQuery 可以处理它,但您可能应该联系销售人员讨论您的容量需求。 添加了“(在进行多 TB 导入之前,最好联系销售人员,以确保有准备好处理理论限制的物理容量)” 一张表可以容纳多少 PB? (我们在一次讲座中谈到 BigQuery,很高兴能为听众提供答案)以上是关于BigQuery - 最大数据集大小的主要内容,如果未能解决你的问题,请参考以下文章
从 BigQuery 数据查询中查询名为 chartio 的 BI 工具时,最大数据大小是多少?
从BigQuery数据查询中查询名为chartio的BI工具时的最大数据大小是多少?