BigQuery - Apache Avro 库无法解析标头并出现以下错误:数据文件无效。魔法不匹配

Posted

技术标签:

【中文标题】BigQuery - Apache Avro 库无法解析标头并出现以下错误:数据文件无效。魔法不匹配【英文标题】:BigQuery - Apache Avro library failed to parse the header with the following error: Invalid data file. Magic does not match 【发布时间】:2019-11-25 17:53:31 【问题描述】:

我第一次弄乱 avro 文件。

我得到了很多带有编码数据的 csv 文件,并且只是对应该进入 BigQuery 的数据进行了 python 处理。最后,我得到了在 avsc 中收到的带有 csv 数据的模式节拍。到现在为止还挺好。

现在我知道我需要在 BigQuery 中创建将接收此数据的表。我只是尝试创建一个空白表并插入接收到的模式并且不能。我得到以下信息:“读取数据时出错,错误消息:Apache Avro 库无法解析标头并出现以下错误:无效的数据文件。魔术不匹配:gs://xxx/xxx/test.avsc” .我试图通过这个在线页面将 avsc 转换为 json:https://json-schema-validator.herokuapp.com/avro.jsp 但是没有成功。

这是进程路径吗?因为我可以在解码后生成记录,所以我知道架构不正确。所以我怀疑我是否做对了。

【问题讨论】:

【参考方案1】:

您不能使用 avsc 文件创建表模式。您可以从CSV 或AVRO(未压缩)加载数据并启用模式自动检测。此外,如果您的文件位于本地数据源上,请查看 this。

由于您使用的是 python 和 CSV 文件,因此您可以尝试以下操作:

from google.cloud import bigquery
client = bigquery.Client()
filename = '/path/to/file.csv'
dataset_id = 'my_dataset'
table_id = 'my_table'

dataset_ref = client.dataset(dataset_id)
table_ref = dataset_ref.table(table_id)
job_config = bigquery.LoadJobConfig()
job_config.source_format = bigquery.SourceFormat.CSV
job_config.skip_leading_rows = 1
job_config.autodetect = True

with open(filename, "rb") as source_file:
    job = client.load_table_from_file(source_file, table_ref, job_config=job_config)

job.result()  # Waits for table load to complete.

print("Loaded  rows into :.".format(job.output_rows, dataset_id, table_id))

【讨论】:

以上是关于BigQuery - Apache Avro 库无法解析标头并出现以下错误:数据文件无效。魔法不匹配的主要内容,如果未能解决你的问题,请参考以下文章

推断 BigQuery 表加载的 avro 架构

Apache-beam Bigquery .fromQuery ClassCastException

分区 BigQuery 表,从 AVRO 加载

Spark AVRO 与 BigQuery 兼容

将 avro 十进制数据加载到 BigQuery 中?

使用压缩的 AVRO 从 BigQuery 导出表