我正在使用Airflow v1.8.1,并在kubernetes和Docker上运行所有组件(worker、web、flower、scheduler)。 我使用带有Redis的Celery Executor,我的任务看起来像:
(start) -> (do_work_for_product1)
├ -> (do_work_for_product2)
├ -> (do_work_for_product3)
├ …
所以start
任务有多个下游。我将并发相关的配置设置如下:
parallelism = 3
dag_concurrency = 3
max_active_runs = 1
当我手动运行这个DAG时(不确定是否在计划任务上从未发生),一些下游任务得到执行,但其他任务停留在“queued”状态。
如果我从管理界面清除此任务,则它将被执行。 没有工作者日志(在处理了一些下游任务后,就没有输出任何日志了)。
Web服务器的日志(不确定worker exiting
是否相关)
/usr/local/lib/python2.7/dist-packages/flask/exthook.py:71: ExtDeprecationWarning: Importing flask.ext.cache is deprecated, use flask_cache instead.
.format(x=modname), ExtDeprecationWarning
[2017-08-24 04:20:56,496] [51] {models.py:168} INFO - Filling up the DagBag from /usr/local/airflow_dags
[2017-08-24 04:20:57 +0000] [27] [INFO] Handling signal: ttou
[2017-08-24 04:20:57 +0000] [37] [INFO] Worker exiting (pid: 37)
调度器上也没有错误日志,每次尝试此操作时,卡住的任务数量都在变化。
由于我也使用Docker,所以我想知道这是否有关系:https://github.com/puckel/docker-airflow/issues/94但目前还没有头绪。
有人遇到过类似问题或者有一些想法可以帮忙排查这个问题吗?
sudo chown -R airflow:airflow logs/
- fernandosjp