我已经完成了Spark的安装并在设置主节点和工作节点后执行了一些测试用例。话虽如此,我对Spark上下文中“job”究竟是什么有很大的困惑(不是SparkContext)。 我有以下问题
- “job”与Driver程序有什么不同。
- 应用程序本身是Driver程序的一部分吗?
- Spark submit 在某种程度上是一个job吗?
我阅读了Spark文档,但仍然对此一点不清楚。
话虽如此,我的实现是编写spark jobs {编程},这将进行spark-submit。
如果可能,请提供一些示例来帮助解释。这将非常有帮助。
注意: 请不要发布Spark链接,因为我已经尝试过了。即使问题听起来很幼稚,但我仍然需要更加清晰地理解。