我在linux上安装了hadoop1.2.1,采用单节点集群配置。一切正常 jps
命令正在显示所有5个作业的信息
工作追踪者
名称节点
任务跟踪器
次要名称节点
日本
数据节点现在,当我使用命令启动hadoop时
bin/start-all.sh` ,hadoop启动所有5个作业,但在几秒钟内namenode自动关闭。
有什么办法可以解决这个问题吗?
我检查了namenode日志文件,它显示以下错误:
ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Edit log corruption detected: corruption length = 98362 > toleration length = 0; the corruption is intolerable.
1条答案
按热度按时间kuarbcqp1#
这是被问了很多次,也回答了,搜索与例外消息会给你的结果。
在stackoverflow中提问之前,请通过右上角的“搜索”选项检查是否已提前提出了同类问题。
说到问题陈述,
很可能是因为
hadoop.tmp.dir
namenode存储编辑日志和检查点数据的位置。每次重启机器后,
tmp
当尝试再次通过namenode访问时,许多导致问题的服务将清除文件夹。因此,重新启动后,只有长度为0。
在
core-site.xml
更改属性hadoop.tmp.dir
目录到其他目录。参考文献是:这里
希望有帮助!