键错误:在pyspark中没有找到'SPARK_HOME'

3

当我尝试:

from pyspark import SparkContext, SparkConf
sc=SparkContext()

I get:

KeyError: 'SPARK_HOME'

解决方案是什么?


设置环境变量 SPARK_HOME - Slater Victoroff
1个回答

3

pyspark依赖于spark SDK。在使用pyspark之前,您需要安装该SDK。

安装完成后,您需要设置环境变量SPARK_HOME,以告诉pyspark查找您的spark安装位置。如果您使用*nix系统,可以通过将以下内容添加到.bashrc来完成设置:

export SPARK_HOME=<location of spark install>

如果你在使用Windows操作系统,有一种复杂的通过图形界面设置变量的方式在这里。通过DOS命令行,你可以用set代替export

SET SPARK_HOME=<location of spark install>

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接