使用 Upstart 启动 Spark Standalone 主节点

3

我是一个Upstart新手(也是Spark的新手),

我已经能够使用以下命令启动Spark独立服务器:

./spark-1.5.2-bin-hadoop2.4/sbin/start-master.sh 

我希望每次计算机开机时,这个程序都能自动启动。我查询了Upstart并编写了这个简单的配置文件:

 description "satrt a spark master with Upstart"
 author "Ezer"
 exec bash -c '/spark-1.5.2-bin-hadoop2.4/sbin/start-master start'

这个功能无法正常工作,我感觉自己缺少一些基础知识,请帮忙解决。谢谢。


你有一些错误日志可以展示吗? - Avihoo Mamka
为什么你在作为参数运行时要给出“start”,但在命令行中运行时却不需要? - Avihoo Mamka
我从某个地方找到了这个解释如何在upstart中运行脚本的内容,我会先不用它来检查并让你知道。 - Ezer K
执行 bash -c '/spark-1.5.2-bin-hadoop2.4/sbin/start-master' 不起作用。 - Ezer K
1个回答

1
如何?
export SPARK_HOME={YOUR_ACTUAL_SPARK_HOME_PATH}
exec bash $SPARK_HOME/sbin/start-all.sh

在您的upstart配置文件中?但是请注意,脚本生成进程,因此您实际上无法使用upstart管理服务。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接