当我尝试: from pyspark import SparkContext, SparkConf sc=SparkContext() I get: KeyError: 'SPARK_HOME' 解决方案是什么?
pyspark依赖于spark SDK。在使用pyspark之前,您需要安装该SDK。 安装完成后,您需要设置环境变量SPARK_HOME,以告诉pyspark查找您的spark安装位置。如果您使用*nix系统,可以通过将以下内容添加到.bashrc来完成设置: export SPARK_HOME=<location of spark install> 如果你在使用Windows操作系统,有一种复杂的通过图形界面设置变量的方式在这里。通过DOS命令行,你可以用set代替export: SET SPARK_HOME=<location of spark install>
SPARK_HOME
- Slater Victoroff