我已经安装了Spark发行版:spark-2.2.0-bin-hadoop2.7
。
我正在使用 Windows 10
操作系统。
我的Java版本是 1.8.0_144
。
我已经设置了环境变量:
SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7
HADOOP_HOME D:\Hadoop ( where I put bin\winutils.exe )
PYSPARK_DRIVER_PYTHON ipython
PYSPARK_DRIVER_PYTHON_OPTS notebook
路径为D:\spark-2.2.0-bin-hadoop2.7\bin
当我从命令行启动pyspark
时,会出现以下错误:
ipython is not recognized as an internal or external command
我也尝试在jupyter中设置
PYSPARK_DRIVER_PYTHON
,但是它显示相同的错误(不被识别为内部或外部命令)。请问有什么帮助吗?
jupyter
和ipython
吗? - desertnaut