BigQuery 加载作业 [无效] 遇到太多错误
Posted
技术标签:
【中文标题】BigQuery 加载作业 [无效] 遇到太多错误【英文标题】:BigQuery Load Job [invalid] Too many errors encountered 【发布时间】:2014-06-06 15:40:52 【问题描述】:我正在尝试使用 BigQuery Api C# Sdk 将数据插入 BigQuery。
我使用 Json 换行符分隔数据创建了一个新作业。 当我使用:
100 行输入:OK
250 行输入:OK
500 行输入:KO
2500 行:KO
遇到的错误是:
“状态”: “状态”:“完成”, “错误结果”: “原因”:“无效”, "message": "遇到太多错误。限制为:0。" , “错误”:[ “原因”:“内部错误”, “位置”:“文件:0”, "message": "意外。请重试。" , “原因”:“无效”, "message": "遇到太多错误。限制为:0。" ]
当我使用带有命令的 Bq 工具时,该文件运行良好:
bq load --source_format=NEWLINE_DELIMITED_JSON dataset.datatable pathToJsonFile服务器端似乎有问题,或者当我传输文件时,我们无法获得比“内部服务器错误”更多的日志
有人知道这方面的更多信息吗?
谢谢你
【问题讨论】:
有关信息,这是一个失败的jobid:job_ZkUSUDZrt0WNiVWWJYJ89Yw81x0 【参考方案1】:“意外。请重试。”可能表明您提供的文件内容包含意外字符,也可能意味着发生意外的内部服务器状况。有几个问题可能有助于阐明这一点:
无论您重试多少次,这种情况是否始终如一?
这是否直接取决于文件中的行,或者您可以构建一个不会触发错误条件的简单上传文件?
可能避免这些问题的一个选项是发送具有大于零的configuration.load.maxBadRecords
的加载作业请求。
请随时评论更多信息,我可能会更新此答案。
【讨论】:
以上是关于BigQuery 加载作业 [无效] 遇到太多错误的主要内容,如果未能解决你的问题,请参考以下文章
当Big Query加载失败并且CSV表遇到太多错误时,获取更多信息,放弃[重复]
BigQuery 加载作业在 JSON 中的布尔数据类型字段上失败