如何使用apache气流调度谷歌云bigquery存储过程

Posted

技术标签:

【中文标题】如何使用apache气流调度谷歌云bigquery存储过程【英文标题】:how to use apache airflow schedule google cloud bigquery stored procedure 【发布时间】:2021-07-08 13:17:44 【问题描述】:

我想在 apache 气流中安排一个谷歌云 bigquery 存储过程。我没有在气流中看到任何文件。我应该使用哪个调度程序在 apache 气流上调度 bigquery 存储过程。你能给我看一些例子吗?非常感谢。

https://airflow.apache.org/docs/apache-airflow-providers-google/stable/operators/cloud/bigquery.html#execute-bigquery-jobs

【问题讨论】:

【参考方案1】:

BigQueryInsertJobOperator 应该是在您的 DAG 中用于执行 SQL 的运算符 - 这是您在 BigQuery 中调用存储过程时要执行的操作。

例如:

call_stored_procedure = BigQueryInsertJobOperator(
    task_id="call_stored_procedure",
    configuration=
        "query": 
            "query": "CALL `project_id.dataset.stored_procedure_name`(arg1, arg2); ",
            "useLegacySql": False,
        
    ,
    location=location,
)

【讨论】:

我在气流文档中没有找到这个操作符。您在哪里找到这个 BigQueryInsertJobOperator? 它位于问题链接中的“airflow/providers/google/cloud/example_dags/example_bigquery_queries.py”示例中。 非常感谢!

以上是关于如何使用apache气流调度谷歌云bigquery存储过程的主要内容,如果未能解决你的问题,请参考以下文章

如何在气流中配置 Google Cloud BigQuery

如何在谷歌云数据流/Apache Beam 中并行运行多个 WriteToBigQuery?

Bigquery 如何使用存储在谷歌云中的数据?

无法将气流连接到谷歌云

使用谷歌云数据流执行谷歌 Bigquery 查询

谷歌云bigquery成本