我已经用3个vm建立了一个非常简单的hadoop集群—一个充当namenode,另两个充当数据节点。我用format命令创建了hdfs文件系统,一切正常。我可以将文件保存到hdfs系统。
现在我想添加另一个数据节点。我的假设是,当我设置新节点,将其添加到slaves文件,并(大概)重新启动hdfs时,系统将实现新节点已经添加,并且将在新节点上分配和格式化磁盘空间,使其成为hdfs的一部分。这个假设正确吗?显然,重新格式化整个hdfs是不可取的,所以我假设datanodes可以“动态”添加。我是正确的还是需要执行其他操作以使新节点为hdfs提供存储?谢谢!
1条答案
按热度按时间rdrgkggo1#
我假设datanodes可以“动态”添加。
你的假设是正确的。
hdfs上的任何内容都不需要格式化。新datanode的磁盘应该是并且datanode目录最好与其他节点相同,但不一定。
您不需要重新启动hdfs。datanode在其服务运行时使用rpc请求向namenode注册
提示:使用apacheambari使安装、配置和管理服务比自己编辑和同步xml容易得多