hadoop start-dfs.sh失败

q9rjltbz  于 2021-06-04  发布在  Hadoop
关注(0)|答案(1)|浏览(564)

我是hadoop新手,我会按照说明来配置集群
配置之后,我用 /bin/start-dfs.sh 我检查日志文件 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out 确保运行,但我只看到如下文本:

ulimit -a for user deploy
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 63524
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 4096
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 16384
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

希望有人能帮忙?

jmo0nnb3

jmo0nnb31#

@明,你在看 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out ,请参见 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.log . 类似地,也会有其他日志文件 /home/deploy/hadoop/libexec/../logs/ 文件夹。
让我详细解释一下.log和.out文件。
logs文件夹中的一些文件以.log结尾,其他文件以.out结尾。.out文件仅在守护程序启动时写入。守护程序成功启动后,.out文件将被截断。相比之下,所有日志消息都可以在.log文件中找到,包括发送到.out文件的守护程序启动消息。

相关问题