我有一个使用Spark 2.1独立模式的Scala应用程序。该应用程序将运行2小时并完成。它应该每月运行一次。
我找到了几种结合Spark和Kubernetes的方法:
我找到了几种结合Spark和Kubernetes的方法:
- 使用Apache Spark Helm Chart:https://github.com/kubernetes/charts/tree/master/stable/spark
- 有一个专门针对Kubernetes的Spark分支:https://github.com/apache-spark-on-k8s/spark
- 构建我的应用程序的Docker镜像,包括Spark二进制文件:http://blog.madhukaraphatak.com/scaling-spark-with-kubernetes-part-5/ 代码示例:https://github.com/phatak-dev/kubernetes-spark