我是hadoop新手。我有一个不会被更新的大文件和一堆小文件。我的意图是根据其中记录的哈希值将大文件放在许多不同的数据节点上。每次我搜索一个小文件中的记录时,根据散列值将它们分派给datanodes,然后在本地进行二进制搜索。我的问题是:如何根据记录的哈希值将数据节点分配给记录如何确保二进制搜索在本地执行注意:我已经通过使用totalorderpartitioner和mapfile解决了这个问题。
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!