启动spark时出现问题:“env:jupyter:不是目录”

zaq34kh6  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(426)

我是新来的。所以我的第一步是安装spark。我遵循此链接中的步骤:
http://genomegeek.blogspot.com/2014/11/how-to-install-apache-spark-on-mac-os-x.html
当我完成了所有的步骤并试图点燃Spark时,scala对我来说似乎很好,但python却不是,我得到了以下结论:

$ ./bin/pyspark
$ env: jupyter: Not a directory

有什么问题吗?

5us2dqdw

5us2dqdw1#

经过一段时间的调查,我发现这是由于缺乏jupyter笔记本。

相关问题