hdfs数据节点未开始使用kerberos

vojdkbi0  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(330)

我已将kerberos身份验证添加到apache hdfs,namenode已启动并运行,但无法启动datanode,出现以下异常:

2012-08-23 17:05:45,648 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.RuntimeException: Cannot start secure cluster without privileged resources.
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:324)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:299)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1582)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1521)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1539)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1665)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1682)

我在fedora16上使用apachehadoopversion1.0.1,而不是cloudera版本,jsvc文件也存在于libexec下。
有人能帮我解决这个问题吗。
谢谢,-查维

kqhtkvqz

kqhtkvqz1#

我已经解决了这个异常,数据节点必须从安全集群的根目录启动。

相关问题