我找到以下链接:
https://www.linkedin.com/pulse/airflow-lesson-1-triggerdagrunoperator-siddharth-anand
它确实解释了如何使用TriggerDagRunOperator
来执行独立的Airflow DAG。文档使用了Airflow自己的示例DAG,但我很难理解它们,因为它们没有使用任何sensor。
有人可以解释一下如何使用TriggerDagRunOperator
和SqlSensor
启动独立的DAG吗?当我的SQL Server作业任务完成时,我正在尝试启动单独的DAG。我知道如何使用SqlSensor
检查SQL Server作业的状态,但我不知道如何将结果附加到TriggerDagRunOperator
以启动单独的DAG。
我不想使用Airflow CLI或在一个DAG中完成两个任务。基本上,我希望这只是触发器DAG。
以下是我当前的代码,缺少关键的conditionally_trigger
。
# File Name: check-when-db1-sql-task-is-done
from airflow import DAG
from airflow.operators import TriggerDagRunOperator
from airflow.operators import SqlSensor
from datetime import datetime
default_args = {
'owner': 'airflow',
'retry_delay': timedelta(minutes=5),
}
dag = DAG('check-when-db1-sql-task-is-done',
description='Check-when-DB1-SQL-task-is-done',
default_args=default_args,
schedule_interval='@once',
start_date=datetime.now(),
)
# returns-0-or-1-based-on-job-task-status
sqlsensor = SqlSensor (
task_id='sql-sensor',
poke_interval=30,
timeout=3200,
sql="""select last_run_outcome from msdb.dbo.sysjobsteps where job_id = '249A5A5D-6AFC-4D6B-8CB1-27C16724A450' and step_id = '1' and last_run_date = (select convert(varchar(24),getdate(),112)); """,
mssql_conn_id='db1',
dag=dag,
)
# dag-to-start
trigger = TriggerDagRunOperator (
task_id='start-ssh-job',
trigger_dag_id="qa-knime-ssh-task",
python_callable=conditionally_trigger,
params={'condition_param': True,
'message': 'Hello World'},
dag=dag)
TriggerDagRunOperator
docs中遇到问题。你能否支持(或反对)以下说法:如果没有将参数(run_id
和payload
)传递给新触发的DAG
并在python_callable
中返回True
,是否就足够了呢?(显然它没有被设计成那样,但出于了解的目的..)? - y2k-shubhamlambda
参数中,是否真的需要括号(我是Python
新手)? - y2k-shubhampython_callable
返回true以表示子DAG应该运行;如果python_callable
返回false,则不运行子DAG。对于您的用途,看起来SubDagOperator更适合。 - 7yl4r