尝试执行任何与hadoop相关的cmd操作时出现此错误:
`Error: JAVA_HOME is incorrectly set.
Please update C:\Hadoop\hadoop-2.7.2\conf\hadoop-env.cmd '-Xmx512m' is not recognized as an internal or external command, operable program or batch file.`
我的家被设置为 C:\Program Fies(x86)\Java\jdk1.8.0_91
在环境变量中。我也变了 C:\Hadoop\hadoop-2.7.2\etc\hadoop-env.sh
,并制作 JAVA_HOME
等于上述值。
3条答案
按热度按时间hpxqektj1#
在hadoop-env.cmd中为windows7设置javajdk位置,路径中不带空格。我也面临这个问题。
最初的jdk路径是-c:\ProgramFiles\java\jdk1.8.0\U 144
替换为-c:\java\jdk1.8.0\u 144
现在hadoop已经通过cmd正常启动了
vq8itlhq2#
间距是这里的问题。安装java为
C:\java\jdk
而不是C:\Program Fies(x86)\Java\jdk1.8.0_91
,这是在Windows8.1中为我工作的。xdnvmnnf3#
请尝试编辑hadoop-env.cmd(windows命令脚本)而不是hadoop-env.sh文件,并将路径设置为java\u home。
解释:->确保jdk路径中不包含空格(例如:c:\program files\java.:此处“program files”包含hadoop无法解析的空格){如果jdk路径中有空格,然后在其他路径中安装java,路径名中没有空格}->右键单击hadoop-env.cmd并用记事本编辑->设置java\u home=(示例:set java\u home=c:\java)
这对我来说很有效,我在windows上安装了apachespark,安装了scala和scalaide(使用eclipse->maven项目作为scalaide),解决了winutils错误,最后解决了这个错误,使spark在windows上工作。请随时询问有关这些问题的任何疑问。