放入并行管道时未在 DAG 中显示的任务

Posted

技术标签:

【中文标题】放入并行管道时未在 DAG 中显示的任务【英文标题】:Tasks not shown in DAG when put in parallel pipeline 【发布时间】:2019-11-15 06:15:52 【问题描述】:

我有四个操作来使用 Airflow 将 mysql 的表提取到 BigQuery 中。我将我的任务分为两个步骤,从 MySQL 提取到 GCS,然后将 GCS Json 加载到每个表的 BQ 中(我有四个来自 MySQL 的表,所以它将是 8 个任务)。

我的任务是这样的:

[
task_extract_table_A>>task_load_table_A,
task_extract_table_B>>task_load_table_B,
task_extract_table_C>>task_load_table_C,
task_extract_table_D>>task_load_table_D
]

但是,在我的仪表板中,只显示了表 A、B 和 C 的提取和加载,而不显示表 D。有人知道这个管道发生了什么吗?

我对每个表都使用相同的 DAG 声明。

【问题讨论】:

【参考方案1】:

你不需要在它上面加上方括号[]。只需使用以下内容:

task_extract_table_A>>task_load_table_A,
task_extract_table_B>>task_load_table_B,
task_extract_table_C>>task_load_table_C,
task_extract_table_D>>task_load_table_D

【讨论】:

以上是关于放入并行管道时未在 DAG 中显示的任务的主要内容,如果未能解决你的问题,请参考以下文章

使用Go搭建并行排序处理管道笔记

PHP多进程处理并行处理任务实例(转,备用)

Jquery datatable 在从简单的 Web 服务调用 Web 方法时未在表中显示任何数据

从 NamedPipeClientStream 调用命名管道时未连接

GNU Parallel使用管道并行执行命令?

ZeroMQ_05 管道模式