我使用Homebrew安装了Scala和Apache Spark,它们的版本分别是Scala 2.12.4和Apache Spark 2.2.0。然而,如果你检查spark-shell -version,会发现它使用了不同版本的Scala。 如何设置spark-shell使用已安装的scala版本?在homebrew安装期间有没有设置apache-spark使用的scala版本的方法?
TL;DR 不行。 存在两个问题: Spark(实际上不仅限于Spark)将使用用来编译它的Scala版本。机器上安装的Scala编译版本完全不相关。 目前Spark还不支持Scala 2.12,因此重新编译也不是一个选项。