在windows 10上安装hadoop 2.7.2时出错

56lgkhnf  于 2021-06-02  发布在  Hadoop
关注(0)|答案(3)|浏览(479)

尝试执行任何与hadoop相关的cmd操作时出现此错误:

`Error: JAVA_HOME is incorrectly set. 
Please update C:\Hadoop\hadoop-2.7.2\conf\hadoop-env.cmd '-Xmx512m' is not recognized as an internal or external command, operable program or batch file.`

我的家被设置为 C:\Program Fies(x86)\Java\jdk1.8.0_91 在环境变量中。我也变了 C:\Hadoop\hadoop-2.7.2\etc\hadoop-env.sh ,并制作 JAVA_HOME 等于上述值。

hpxqektj

hpxqektj1#

在hadoop-env.cmd中为windows7设置javajdk位置,路径中不带空格。我也面临这个问题。
最初的jdk路径是-c:\ProgramFiles\java\jdk1.8.0\U 144
替换为-c:\java\jdk1.8.0\u 144
现在hadoop已经通过cmd正常启动了

vq8itlhq

vq8itlhq2#

间距是这里的问题。安装java为 C:\java\jdk 而不是 C:\Program Fies(x86)\Java\jdk1.8.0_91 ,这是在Windows8.1中为我工作的。

xdnvmnnf

xdnvmnnf3#

请尝试编辑hadoop-env.cmd(windows命令脚本)而不是hadoop-env.sh文件,并将路径设置为java\u home。
解释:->确保jdk路径中不包含空格(例如:c:\program files\java.:此处“program files”包含hadoop无法解析的空格){如果jdk路径中有空格,然后在其他路径中安装java,路径名中没有空格}->右键单击hadoop-env.cmd并用记事本编辑->设置java\u home=(示例:set java\u home=c:\java)
这对我来说很有效,我在windows上安装了apachespark,安装了scala和scalaide(使用eclipse->maven项目作为scalaide),解决了winutils错误,最后解决了这个错误,使spark在windows上工作。请随时询问有关这些问题的任何疑问。

相关问题