将 300 MB 文件加载到 BigQuery 时出现超时错误

Posted

技术标签:

【中文标题】将 300 MB 文件加载到 BigQuery 时出现超时错误【英文标题】:Timeout error when loading 300 MB file into BigQuery 【发布时间】:2016-07-11 15:19:55 【问题描述】:

我遵循了加载数据发布请求页面上提供的 Node.js 示例(靠近底部:https://cloud.google.com/bigquery/loading-data-post-request),但我遇到了较大文件的问题。示例代码适用于 13 MB 的 .csv,但是当我尝试更大的文件时,无论是 25 MB 还是 300 MB,它都不起作用。我看到以下错误:

events.js:154 投掷者; // 未处理的“错误”事件 ^

Error: ETIMEDOUT
    at null._onTimeout (/Users/Hertig/Development/BitDeliver/BigQuery/node_modules/request/request.js:772:15)
    at Timer.listOnTimeout (timers.js:92:15)

我认为这种加载数据的方法将支持更大的文件。有没有其他人经历过这个?任何有关加载更大文件(大约 400 MB 或更大)的建议都将不胜感激。

【问题讨论】:

【参考方案1】:

将大文件加载到 BigQuery 时,最好的方法是先将它们上传到 Google Cloud Storage - 然后告诉 BigQuery 从您的 gs://bucket/path/file* 中读取它们。

【讨论】:

以上是关于将 300 MB 文件加载到 BigQuery 时出现超时错误的主要内容,如果未能解决你的问题,请参考以下文章

将 10 MB 数据上传到 Bigquery

使用云功能从云存储中将数据加载到BigQuery中(替代功能?)

无法将 csv 文件从 GCS 加载到 bigquery

使用 Google Cloud Datalab 时如何将 .gz 文件加载到 BigQuery?

将 csv 文件加载到 BIGquery 中并在插入数据时添加日期列

将 CSV 从 GCS 批量加载到 BigQuery 时,表数据是增量查看还是仅在所有文件加载后才可查看?