java—估计100gb hadoop文件系统中的文件量

ha5z0ras  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(222)

我试图估计一个名节点为100gb的hadoop文件系统中可以存储多少文件(或inode)。

abstract class INode implements Comparable<byte[]> {
    protected byte[] name;
    protected INodeDirectory parent;
    protected long modificationTime;
    protected long accessTime;
}

public class BlockInfo extends Block implements LightWeightGset.LinkedElement {
    private LightWeightGset.LinkedElement nextLinkedElement;
    private Object[] triplets;
}

假设每个inode的块数比为1.5:1。还假设每个块有3个副本。除了这两个类之外,还有一个blocksmap类,它保存对集群中所有块的引用。namenode的堆上可以存储多少inode?
到目前为止,我已经计算出类inode需要~n字节和blockinfo~24m,其中n是字节数组的长度 name m是块的数量。如何继续?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题