我一直在按照这个教程安装scala的spark:https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm
但是,当我尝试运行spark-shell
时,我在控制台中收到此错误。
/usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spark-submit: No such file or directory
我的bashrc看起来像这样:
export PATH = $PATH:/usr/local/spark/bin
export SCALA_HOME=/usr/local/scala/bin
export PYTHONPATH=$SPARK_HOME/python
我哪里说错了?我以前安装过python的spark,但现在我尝试使用scala。斯巴克把变量搞混了吗?谢谢
5条答案
按热度按时间mxg2im7a1#
在它搜索的路径中,
bin
过多:应该是
SPARK_HOME
在您的情况下应该是/usr/local/spark/
,而不是像现在这样的/usr/local/spark/bin/
。zf2sa74q2#
基于@Wilmerton的回答,我在
~/.bashrc
中提出了以下工作配置:(我将
default-jdk
与apt-get install default-jdk
和aptitude search jdk
一起安装,产生了以下与p
状态不同的条目:)
1l5u6lss3#
尝试将bashrc中的第二个环境变量更改为
我的.bash_profile和你的差不多,除了我用
Path
而不是SCALA_HOME
nukf8bse4#
我也有同样的问题,我用这种方法解决了
8zzbczxx5#
也有同样的问题。在解压缩下载的spark包之后,必须创建一个名为
SPARK_HOME
的env变量,并将其设置为解压缩的spark包的路径。在我的例子中,我将这个env变量设置为解压缩包的父目录,而不是实际的包。因此,当执行spark-shell
时,它无法找到执行命令的shell文件。为了更好地说明问题,请在解压缩包后 checkout
bin/spark-shell
文件。在那里,您将发现代码中使用的${SPARK_HOME}
。