我是hadoop新手,在ubuntu 16.04上以独立模式安装了hadoop 3.1.2。当我尝试使用start-all.sh启动守护程序时,命令会说它正在启动不同的守护程序。然而,当我与jps核对时,除了jps之外没有别的了
(sparkVenv) applied@nadeem-Inspiron-5558:~$ start-all.sh
WARNING: Attempting to start all Apache Hadoop daemons as applied in 10 seconds.
WARNING: This is not a recommended production deployment configuration.
WARNING: Use CTRL-C to abort.
Starting namenodes on [nadeem-Inspiron-5558]
Starting datanodes
Starting secondary namenodes [nadeem-Inspiron-5558]
Starting resourcemanager
Starting nodemanagers
(sparkVenv) applied@nadeem-Inspiron-5558:~$ jps
21729 Jps
(sparkVenv) applied@nadeem-Inspiron-5558:~$
下面是namenode日志的一部分
************************************************************/
2019-05-06 15:36:43116 info org.apache.hadoop.hdfs.server.namenode.namenode:为[term,hup,int]注册的unix信号处理程序
2019-05-06 15:36:43252信息org.apache.hadoop.hdfs.server.namenode.namenode:createnamenode[]
2019-05-06 15:36:43515 info org.apache.hadoop.metrics2.impl.metricsconfig:从hadoop-metrics2.properties加载的属性
2019-05-06 15:36:43635 info org.apache.hadoop.metrics2.impl.metricssystemimpl:计划的度量快照周期为10秒。
2019-05-06 15:36:43636 info org.apache.hadoop.metrics2.impl.metricssystemimpl:namenode metrics系统已启动
2019-05-06 15:36:43671 info org.apache.hadoop.hdfs.server.namenode.namenodeutils:fs.defaultfs是文件:///
2019-05-06 15:36:43816错误org.apache.hadoop.hdfs.server.namenode.namenode:无法启动namenode。
java.lang.illegalargumentexception:namenode地址的uri无效(检查fs.defaultfs):文件:///没有权限。
在org.apache.hadoop.hdfs.dfsutilclient.getnnaddress(dfsutilclient。java:697)
位于org.apache.hadoop.hdfs.dfsutilclient.getnnaddresschecklogical(dfsutilclient)。java:726)
在org.apache.hadoop.hdfs.dfsutilclient.getnnaddress(dfsutilclient。java:688)
在org.apache.hadoop.hdfs.server.namenode.namenode.getrpcserveraddress(namenode。java:529)
位于org.apache.hadoop.hdfs.server.namenode.namenode.loginasnamenodeuser(namenode)。java:660)
在org.apache.hadoop.hdfs.server.namenode.namenode.initialize(namenode。java:680)
在org.apache.hadoop.hdfs.server.namenode.namenode。java:937)
在org.apache.hadoop.hdfs.server.namenode.namenode。java:910)
在org.apache.hadoop.hdfs.server.namenode.namenode.createnamenode(namenode。java:1643)
在org.apache.hadoop.hdfs.server.namenode.namenode.main(namenode。java:1710)
2019-05-06 15:36:43819 info org.apache.hadoop.util.exitutil:正在退出,状态为1:java.lang.illegalargumentexception:namenode address的uri无效(检查fs.defaultfs):文件:///没有权限。
2019-05-06 15:36:43821 info org.apache.hadoop.hdfs.server.namenode.namenode:关机\u消息:
/************************************************************
shutdown\u msg:正在关闭nadeem-inspiron-5558/127.0.1.1上的namenode
************************************************************/
2条答案
按热度按时间kqhtkvqz1#
发现core-site.xml和hdfs-site.xml为空。
添加了在中提到的配置https://hadoop.apache.org/docs/r3.2.0/hadoop-project-dist/hadoop-common/singlecluster.html 在伪分布式模式下,格式化namenode。
之后,守护进程开始执行start-all.sh
wd2eg0qa2#
您已经在日志中遇到问题,您的namenode由于core-site.xml“fs.defaultfs”配置中的问题而无法启动。
希望这有帮助。