刷新存储桶中的数据

Posted

技术标签:

【中文标题】刷新存储桶中的数据【英文标题】:Refreshing data in storage bucket 【发布时间】:2020-07-03 04:56:17 【问题描述】:

我通过上传具有相同名称的文件并覆盖它来替换 Google Cloud Storage Bucket 中的数据。但是当我在 Big Query 中查询文件时,它仍然显示旧数据。如何让 Big Query 再次获取文件并覆盖数据?

【问题讨论】:

我的意思是,有没有一种方法可以上传文件而不必每次都在 Big Query 中创建新表? 您是否在存储桶上启用了object versioning 或object lifecycle management?你是querying the data in Cloud Storage using temporary or permanent tables吗?您到底在使用什么(Cloud Console、bq 命令、API、代码示例?您的具体工作流程是什么? 你是如何下载文件的? 【参考方案1】:

谢谢!当我在 Big Query 中创建表时,我将它们从内部表更改为外部表。然后查询每次都从 GCS 获取数据,当我在 GCS 中更改该文件时,更改会反映出来。

【讨论】:

以上是关于刷新存储桶中的数据的主要内容,如果未能解决你的问题,请参考以下文章

气流:每日刷新后如何在 s3 存储桶中公开对象

s3 存储桶中的分区数据格式

将 GCS 存储桶中的 .csv 文件中的数据加载到 Cloud SQL 表中:

使用 aws lambda node js 获取存储在 s3 存储桶中的视频的视频元数据

无论如何将存储桶中的数据合并到表中但没有任何重复的行?

如何从一个账户访问 s3 存储桶中的数据以在另一个账户中使用 redshift 处理数据?