hadoop上的复制分布式数据分配

1aaf6o9v  于 2021-06-04  发布在  Hadoop
关注(0)|答案(1)|浏览(333)

**结束了。**这个问题离题了。它目前不接受答案。
**想改进这个问题吗?**更新问题,使其成为堆栈溢出的主题。

7年前关门了。
改进这个问题
我想问一下hadoop在几个虚拟机和几个物理机上的数据分配。本文设计了一种分配策略,将一个文件块的副本分配给不同的物理机,并保持每个物理机的块数平衡。因此,要确保没有文件块副本全部堆叠在一台物理机器(包含多个虚拟机)上。
我想试着完成那些文书工作。我一直在研究如何配置那些在由多个vm组成的分布式物理机上平均分配的文件块副本。它是在mapreduce算法中编码的还是在hdfs安装中配置的??在纸上,他们说他们将虚拟节点的位置信息添加到网络拓扑中。虚拟节点的网络位置可以从/default rack更改为/phy0。在物理节点的网络位置下添加一层。
我不知道,如何在hadoop中配置它们??

xvw2m8pv

xvw2m8pv1#

hadoop中的这种配置称为机架感知。
使用core-site.xml中的属性“topology.script.file.name”配置机架感知。
如果未配置“topology.script.file.name”,则为任何ip地址传递/default rack,即所有节点都放在同一个机架上。
在hadoop中配置机架感知包括两个步骤,
在core-site.xml中配置“topology.script.file.name”,
<name>topology.script.file.name</name> core/rack-awareness.sh </property> 根据需要执行rack-awareness.sh脚本,可以在此处找到示例rack-awareness脚本,
http://wiki.apache.org/hadoop/topology_rack_awareness_scripts

相关问题