ipython不能识别为内部或外部命令(pyspark)

jm81lzqq  于 2021-06-01  发布在  Hadoop
关注(0)|答案(2)|浏览(572)

我已经安装了spark版本: spark-2.2.0-bin-hadoop2.7 .
我在用 Windows 10 操作系统
我的java版本 1.8.0_144 我已经设置了环境变量:

SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7

HADOOP_HOME D:\Hadoop ( where I put bin\winutils.exe )

PYSPARK_DRIVER_PYTHON ipython

PYSPARK_DRIVER_PYTHON_OPTS notebook

路径是 D:\spark-2.2.0-bin-hadoop2.7\bin 当我发射时 pyspark 从命令行我有这个错误:

ipython is not recognized as an internal or external command

我也试着 PYSPARK_DRIVER_PYTHONjupyter 但是它也给了我同样的错误(不能识别为内部或外部命令)。
需要帮忙吗?

q8l4jmvw

q8l4jmvw1#

在您的机器中搜索ipython应用程序,在我的例子中,它位于“c:\anaconda3\scripts”中。然后将该路径添加到path环境变量中

x0fgdtte

x0fgdtte2#

在安装了anaconda的windows10上,请使用anaconda提示符,而不是windows cmd和launch,jupyter notebook使用下面的命令

pyspark --master local[2]

请确保问题中提到的所有配置都已完成。

相关问题