我有一个Python脚本,连接到Redshift,执行一系列SQL命令,并生成一个新的派生表。
但是,我无法想出一种自动运行它每天的方法。
我尝试过AWS Data Pipeline,但我的shell脚本无法运行第一个复制语句。 Lambda或Glue无法工作,因为我的公司的IAM策略很严格。 Airflow似乎太过于复杂,只是为了每天运行一个单独的Python脚本。
有没有建议的服务可供参考?
但是,我无法想出一种自动运行它每天的方法。
我尝试过AWS Data Pipeline,但我的shell脚本无法运行第一个复制语句。 Lambda或Glue无法工作,因为我的公司的IAM策略很严格。 Airflow似乎太过于复杂,只是为了每天运行一个单独的Python脚本。
有没有建议的服务可供参考?