如何使用 R 将 Google Cloud Datalab 输出保存到 BigQuery
Posted
技术标签:
【中文标题】如何使用 R 将 Google Cloud Datalab 输出保存到 BigQuery【英文标题】:How to save Google Cloud Datalab output into BigQuery using R 【发布时间】:2019-01-25 09:09:52 【问题描述】:我在 Google Cloud Datalab 中使用 R,我想将我的输出(一个包含在代码本身中创建的字符串的表)保存到 BigQuery。我知道有一种方法可以通过使用bqr_create_table
来使用 Python,所以我正在寻找 R 中的等价物。
【问题讨论】:
【参考方案1】:我在 Google Cloud Platform 上的 Gus Class 中找到了这个 blog post,它使用此代码写入 BigQuery:
# Install BigRQuery if you haven't already...
# install.packages("devtools")
# devtools::install_github("rstats-db/bigrquery")
# library(bigrquery)
insert_upload_job("your-project-id", "test_dataset", "stash", stash)
"test_dataset"
是 BigQuery 中的数据集,"stash"
是数据集中的表,stash
是您使用数据定义的任何数据框。
有更多关于如何使用bigrquery进行授权的信息
【讨论】:
以上是关于如何使用 R 将 Google Cloud Datalab 输出保存到 BigQuery的主要内容,如果未能解决你的问题,请参考以下文章
如何以 CSV 表格格式将原始数据源从 Google Big Query 导出到 R 服务器?
使用 PyArrow + Parquet + Google Cloud Storage 时如何实现谓词下推?
如何使用 OpenTelemetry 将 Prometheus 导出到 Google Cloud Monitoring?
如何使用 google-cloud 客户端将大于 32MB 的文件上传到 GCS?