一个比hadoop集群存储更大的文件

j91ykkif  于 2021-05-31  发布在  Hadoop
关注(0)|答案(0)|浏览(283)

如果我存储在hdfs中的文件是5gb,但每个只有3个datanode 1gb,会发生什么情况?
假设我在hdfs中存储一个3gb的文件,每个文件有4个1gb的数据节点。经过处理我有一些结果.txt。存储在datanodes中的已处理文件块会发生什么变化?因为如果我想存储另一个3gb文件来处理,那么空间就不够了?或者这些块在处理后会被删除?我应该自己删除吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题