基本上,Master节点也扮演着其中一个从节点的角色。一旦主节点上的从节点完成了处理,它就会调用SparkContext停止执行,然后该命令会传播到所有的从节点,使得处理在中途停止。
其中一个worker的错误日志:
INFO SparkHadoopMapRedUtil: attempt_201612061001_0008_m_000005_18112:已提交
INFO Executor: 完成第 5.0 个任务,位于第 8.0 阶段(TID 18112)。将 2536 字节的结果发送给驱动程序
INFO CoarseGrainedExecutorBackend: 驱动程序命令进行关闭
ERROR CoarseGrainedExecutorBackend: 收到信号TERMtdown