hdfs抱怨“nn上的资源不足”,并在我有足够的可用空间时进入安全模式

6ju8rftf  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(227)

我在ubuntu16.04.3lts上使用hadoop-2.6.0,在我的测试环境中一切顺利。但是在生产环境中运行时,我的hdfs反复抱怨namenode没有足够的空间,hdfs已经进入了安全模式。
2017-11-25 14:00:48731警告org.apache.hadoop.hdfs.server.namenode.fsnamesystem:namenode可用磁盘空间不足。已经处于安全模式。
2017-11-25 14:00:48731 info org.apache.hadoop.hdfs.statechange:状态*安全模式为on资源不足。请添加或释放更多资源,然后手动关闭安全模式。注意:如果在添加资源之前关闭安全模式,nn将立即返回安全模式。使用“hdfs dfsadmin-safemode leave”关闭安全模式。
2017-11-25 14:00:53732 warn org.apache.hadoop.hdfs.server.namenode.namenoderesourcechecker:卷'/home/hadoop/.private'上的可用空间为0,低于配置的保留装载104857600
但事实是我有足够的空间
文件系统大小已使用%已装入
udev 63g 0 63g 0%/开发
tmpfs 13g 33m 13g 1%/运行
/dev/mapper/hdfsmaster--vg根目录7.1t 1.3t 5.6t 19%/
tmpfs 63g 4.0k 63g 1%/开发/shm
tmpfs 5.0m 0 5.0m 0%/运行/锁定
tmpfs 63g 0 63g 0%/系统/fs/cgroup
/dev/sda2 473m 55m 394m 13%/ Boot
/dev/sda1 511m 4.0k 511m 1%/开机/efi
/home/hadoop/.private 7.1t 1.3t 5.6t 19%/home/hadoop
hdfs data/name目录都在/home/hadoop目录中
hdfs可以成功启动,而且一开始不是安全模式。但是过了一段时间(比如5、6个小时),即使我没有执行任何操作(读/写/查询),它也会抱怨空间不足并自动进入安全模式。
我试过:
重新启动hdfs
重新启动服务器
重新格式化namenode
更改数据/名称文件夹并重新启动hdfs
以上方法都没有帮助。
请帮帮我!我快死了!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题