我已经安装了spark版本: spark-2.2.0-bin-hadoop2.7
.
我在用 Windows 10
操作系统
我的java版本 1.8.0_144
我已经设置了环境变量:
SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7
HADOOP_HOME D:\Hadoop ( where I put bin\winutils.exe )
PYSPARK_DRIVER_PYTHON ipython
PYSPARK_DRIVER_PYTHON_OPTS notebook
路径是 D:\spark-2.2.0-bin-hadoop2.7\bin
当我发射时 pyspark
从命令行我有这个错误:
ipython is not recognized as an internal or external command
我也试着 PYSPARK_DRIVER_PYTHON
在 jupyter
但是它也给了我同样的错误(不能识别为内部或外部命令)。
需要帮忙吗?
2条答案
按热度按时间q8l4jmvw1#
在您的机器中搜索ipython应用程序,在我的例子中,它位于“c:\anaconda3\scripts”中。然后将该路径添加到path环境变量中
x0fgdtte2#
在安装了anaconda的windows10上,请使用anaconda提示符,而不是windows cmd和launch,jupyter notebook使用下面的命令
请确保问题中提到的所有配置都已完成。