hadoop—在hdfs上存储小尺寸大数量的图像以供以后处理

euoag5mw  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(137)

我正在做一个项目,我们在mongodb上有10亿个图像及其元数据。我想将此图像存储在hdfs上,以便以后进行图像处理。图像的大小在500k到4mb之间,因此,我在hadoop中遇到了小文件的问题。我找到了解决这个问题的三种可能的方法:hbase、har或序列文件。知道我需要在处理这些图像时使用spark而不是map reduce,什么是最合适的解决方案?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题