Spark-shell使用不同版本的Scala。使用Homebrew安装了Scala和Apache Spark。

3
我使用Homebrew安装了Scala和Apache Spark,它们的版本分别是Scala 2.12.4和Apache Spark 2.2.0。然而,如果你检查spark-shell -version,会发现它使用了不同版本的Scala。

version mismatch scala and spark-shell

如何设置spark-shell使用已安装的scala版本?在homebrew安装期间有没有设置apache-spark使用的scala版本的方法?
1个回答

3

TL;DR 不行。

存在两个问题:

  • Spark(实际上不仅限于Spark)将使用用来编译它的Scala版本。机器上安装的Scala编译版本完全不相关。
  • 目前Spark还不支持Scala 2.12,因此重新编译也不是一个选项。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接