以下是别人在另一个论坛上从未得到答案的问题,我想在这里重新问一下,因为我也有同样的问题。(请参见http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)
我已经在我的电脑上正确安装了Spark,并且能够使用./bin/pyspark作为Python解释器来运行带有pyspark模块的Python程序而不出错。
然而,当我尝试运行常规Python shell时,当我尝试导入pyspark模块时,我会得到以下错误:
from pyspark import SparkContext
它说:
"No module named pyspark".
如何解决这个问题?我需要设置一个环境变量来指向Python所需的pyspark headers/libraries等吗?如果我的spark安装在/spark/下,我需要包括哪些pyspark路径?或者pyspark程序只能从pyspark解释器中运行吗?