安装spark时出错

oipij1gg  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(520)

我正试图在Windows8.1中安装spark,但出现以下错误。
c:>cd程序文件\spark-1.5.0\bin
c:\program files\spark-1.5.0\bin>spark shell“c:\program”不能识别为内部或外部命令、可操作程序或批处理文件。
c:\program files\spark-1.5.0\bin>
和完成的前提条件,请参阅下面的命令,
c:\users\anbu>java-版本java version“1.8.0\u 65”java(tm)se runtime environment(build 1.8.0\u 65-b17)java hotspot(tm)64位服务器vm(build 25.65-b01,混合模式)
c:\users\anbu>scala-版本scala code runner版本2.11.8--版权所有2002-2016,lamp/epfl c:\users\anbu>
同时设置系统属性。
我错过了什么?为什么会出现这个错误?任何人请帮我安装Spark。
谢谢,安布克

tyky79it

tyky79it1#

你好像下载了spark的源代码包。
对于安装你需要内置的Spark包。通过选择特定的包类型(如下图所示),您可以从sparks的下载页面下载spark的预构建包。所以下载预构建包并检查安装。应该有用。

相关问题