我们正在尝试从Pentaho Kettle迁移到Apache Airflow来进行ETL,并将所有数据处理集中在一个工具下。
我们使用Kettle每天从Postgres/Mysql数据库读取数据,并将数据移动到S3->Redshift。
最简单的方法是什么?我没有看到可以直接完成此操作的Operator;所以我应该使用MySQL/Postgres operator将数据放入本地文件,然后使用S3 operator将数据移动到S3吗?
谢谢。
我们使用Kettle每天从Postgres/Mysql数据库读取数据,并将数据移动到S3->Redshift。
最简单的方法是什么?我没有看到可以直接完成此操作的Operator;所以我应该使用MySQL/Postgres operator将数据放入本地文件,然后使用S3 operator将数据移动到S3吗?
谢谢。