我在我的Hortonworks集群上安装了Spark 1.6.2和Spark 2.0。
这两个版本都安装在5个节点的Hadoop集群中的一个节点上。
每次我启动spark-shell
时,都会收到以下提示:
$ spark-shell
Multiple versions of Spark are installed but SPARK_MAJOR_VERSION is not set
Spark1 will be picked by default
当我检查版本时,我得到:
scala> sc.version
res0: String = 1.6.2
我怎样启动另一个版本(Spark 2.0的spark-shell)?