我需要在一台机器上安装Spark并以独立模式运行,希望能找到通过apt-get直接安装的简单方法。
我发现可以通过pip 这里 安装pyspark。
我找不到任何一条命令可以安装spark。
安装pyspark是否会安装所有的spark软件?
我找到了这里的安装说明,它更加复杂。
是否有一种类似于通过apt-get一条命令安装Spark的方式?
编辑:
我找到了这篇文章,解释了如何使用apt-get安装Spark,并出现了以下错误。
E: 无法找到spark-core软件包 E: 无法找到spark-master软件包 E: 无法找到spark-worker软件包 E: 无法找到spark-history-server软件包 E: 无法找到spark-python软件包
谢谢
我发现可以通过pip 这里 安装pyspark。
我找不到任何一条命令可以安装spark。
安装pyspark是否会安装所有的spark软件?
我找到了这里的安装说明,它更加复杂。
是否有一种类似于通过apt-get一条命令安装Spark的方式?
编辑:
我找到了这篇文章,解释了如何使用apt-get安装Spark,并出现了以下错误。
E: 无法找到spark-core软件包 E: 无法找到spark-master软件包 E: 无法找到spark-worker软件包 E: 无法找到spark-history-server软件包 E: 无法找到spark-python软件包
谢谢
sudo apt-get install spark
命令的输出结果?我在我的 Linux Mint(基于 Ubuntu)上执行了该命令,没有出现任何问题。 - kchomskisudo apt-get install spark
将安装基于Ada编程语言的“SPARK编程语言工具集”(请参见https://packages.ubuntu.com/artful/devel/spark)。这不是(!)“Apache Spark”。 - asmaier