在我的例子中,我试图将所有给定的图像文件合并到hadoop序列文件中,以避免小文件问题。因此,我首先在mapper应用程序的帮助下创建了序列文件。每个图像文件的键是指向它的路径,相应的值将是图像文件的字节数组。将图像写入序列文件时,图像字节数组的大小为14k。每当我试图在另一个Map器的帮助下从序列文件(第一个Map器的输出)读取值时,读取字节数组的大小会急剧增加,比如说500k。不知道问题出在哪里。请帮我解决这个问题。
在我的例子中,我试图将所有给定的图像文件合并到hadoop序列文件中,以避免小文件问题。因此,我首先在mapper应用程序的帮助下创建了序列文件。每个图像文件的键是指向它的路径,相应的值将是图像文件的字节数组。将图像写入序列文件时,图像字节数组的大小为14k。每当我试图在另一个Map器的帮助下从序列文件(第一个Map器的输出)读取值时,读取字节数组的大小会急剧增加,比如说500k。不知道问题出在哪里。请帮我解决这个问题。
暂无答案!
目前还没有任何答案,快来回答吧!