我们如何使用 BigQueryCreateEmptyTableOperator 创建具有“Clustered by”列的表?

Posted

技术标签:

【中文标题】我们如何使用 BigQueryCreateEmptyTableOperator 创建具有“Clustered by”列的表?【英文标题】:How we can create a Table with "Clustered by" column using BigQueryCreateEmptyTableOperator? 【发布时间】:2019-09-16 11:07:21 【问题描述】:

我正在尝试使用 python 脚本在我的 GCP 作曲家任务中使用 BigQueryCreateEmptyTableOperator 和 cluster_by 列创建一个表。我正在使用“cluster_fields”来创建列,但它不起作用。请建议我正确的方法是什么?

下面是我正在使用的代码。

stop_op = BigQueryCreateEmptyTableOperator(
        task_id='BigQuery_CreateTable',
        dataset_id=dataset_nm,
        table_id=table_nm,
        project_id=project_nm,
        schema_fields=["name": "emp_name", "type": "STRING", "mode": "REQUIRED",
                       "name": "salary", "type": "INTEGER", "mode": "NULLABLE",
                       "name": "distribution_name", "type": "STRING", "mode": "NULLABLE",
                       "name": "transaction_date", "type": "DATE", "mode": "NULLABLE"],
    time_partitioning='type': 'DAY', 'field': 'transaction_date',
    cluster_fields='distribution_name',
    bigquery_conn_id='bigquery_default',
    google_cloud_storage_conn_id='bigquery_default',
    autodetect=True,
    dag=dag
)

【问题讨论】:

【参考方案1】:

目前,最新版本的 Airflow 中不提供此功能(编写此答案时为 1.10.5)。

但是,您可以使用如下创建一个新运算符并使用它。

from airflow.utils.decorators import apply_defaults 
from airflow.contrib.hooks.bigquery_hook import BigQueryHook 
from airflow.contrib.hooks.gcs_hook import GoogleCloudStorageHook, _parse_gcs_url
from airflow.contrib.operators.bigquery_operator import BigQueryCreateEmptyTableOperator 
import json

class BQCreateEmptyTableWithClusteredFieldsOp(BigQueryCreateEmptyTableOperator):
    template_fields = ('dataset_id', 'table_id', 'project_id',
                       'gcs_schema_object', 'labels')
    ui_color = '#f0eee4'

    # pylint: disable=too-many-arguments
    @apply_defaults
    def __init__(self,
                 dataset_id,
                 table_id,
                 project_id=None,
                 schema_fields=None,
                 gcs_schema_object=None,
                 time_partitioning=None,
                 bigquery_conn_id='bigquery_default',
                 google_cloud_storage_conn_id='google_cloud_default',
                 delegate_to=None,
                 labels=None,
                 encryption_configuration=None,
                 cluster_fields=None,
                 *args, **kwargs):

        super(BigQueryCreateEmptyTableOperator, self).__init__(*args, **kwargs)

        self.project_id = project_id
        self.dataset_id = dataset_id
        self.table_id = table_id
        self.schema_fields = schema_fields
        self.gcs_schema_object = gcs_schema_object
        self.bigquery_conn_id = bigquery_conn_id
        self.google_cloud_storage_conn_id = google_cloud_storage_conn_id
        self.delegate_to = delegate_to
        self.time_partitioning =  if time_partitioning is None else time_partitioning
        self.labels = labels
        self.encryption_configuration = encryption_configuration
        self.cluster_fields = cluster_fields or []

    def execute(self, context):
        bq_hook = BigQueryHook(bigquery_conn_id=self.bigquery_conn_id,
                               delegate_to=self.delegate_to)

        if not self.schema_fields and self.gcs_schema_object:

            gcs_bucket, gcs_object = _parse_gcs_url(self.gcs_schema_object)

            gcs_hook = GoogleCloudStorageHook(
                google_cloud_storage_conn_id=self.google_cloud_storage_conn_id,
                delegate_to=self.delegate_to)
            schema_fields = json.loads(gcs_hook.download(
                gcs_bucket,
                gcs_object).decode("utf-8"))
        else:
            schema_fields = self.schema_fields

        conn = bq_hook.get_conn()
        cursor = conn.cursor()

        cursor.create_empty_table(
            project_id=self.project_id,
            dataset_id=self.dataset_id,
            table_id=self.table_id,
            schema_fields=schema_fields,
            time_partitioning=self.time_partitioning,
            labels=self.labels,
            cluster_fields=self.cluster_fields,
            encryption_configuration=self.encryption_configuration
        )

现在您可以按如下方式使用它:

stop_op = BQCreateEmptyTableWithClusteredFieldsOp(
        task_id='BigQuery_CreateTable',
        dataset_id=dataset_nm,
        table_id=table_nm,
        project_id=project_nm,
        schema_fields=["name": "emp_name", "type": "STRING", "mode": "REQUIRED",
                       "name": "salary", "type": "INTEGER", "mode": "NULLABLE",
                       "name": "distribution_name", "type": "STRING", "mode": "NULLABLE",
                       "name": "transaction_date", "type": "DATE", "mode": "NULLABLE"],
    time_partitioning='type': 'DAY', 'field': 'transaction_date',
    cluster_fields='distribution_name',
    bigquery_conn_id='bigquery_default',
    google_cloud_storage_conn_id='bigquery_default',
    autodetect=True,
    dag=dag
)

【讨论】:

感谢您的解决方案,当我使用 BQCreateEmptyTableWithClusteredFieldsOp 类时,出现错误:没有名为“airflow.gcp”的模块。我正在使用以下导入...... 从airflow.utils.decorators 导入apply_defaults 从airflow.contrib.hooks.bigquery_hook 导入BigQueryHook 从airflow.contrib.hooks.gcs_hook 导入GoogleCloudStorageHook 从airflow.gcp.hooks.gcs 导入_parse_gcs_url 从airflow.contrib .operators.bigquery_operator 导入 BigQueryCreateEmptyTableOperator 导入 json 检查更新的答案,我已经在代码中添加了导入。 ``` 从airflow.utils.decorators 导入apply_defaults 从airflow.contrib.hooks.bigquery_hook 导入BigQueryHook 从airflow.contrib.hooks.gcs_hook 导入GoogleCloudStorageHook,_parse_gcs_url 从airflow.contrib.operators.bigquery_operator 导入BigQueryCreateEmptyTableOperator 导入json ```跨度> 谢谢,我试过了,但错误仍然存​​在。错误 - create_empty_table() 有一个意外的关键字参数“cluster_fields” 您可能使用的是旧版本的 Airflow。 cluster_fields 在 Airflow 1.10.5 中可用于 create_empty_table()。链接:github.com/apache/airflow/blob/1.10.5/airflow/contrib/hooks/…

以上是关于我们如何使用 BigQueryCreateEmptyTableOperator 创建具有“Clustered by”列的表?的主要内容,如果未能解决你的问题,请参考以下文章

我们如何使用贝宝支付流来拆分金额

我们如何使用 tapGesture 在 Tvos 中播放视频

我们如何/为啥使用 operator.abs

NSStringDrawingUsesDeviceMetrics 标志是啥意思,我们如何使用它?

如何使用Countifs函数动态统计

我们如何使用 AFNetworking 3.0 记录请求