虽然我知道hadoop通常不用于图像处理,但作为概念证明,我一直在尝试使用hadoop实现图像处理。在此过程中,利用mapreduce模型成功实现了sobel边缘检测算法,并在hadoop环境下运行。我的程序应该从hdfs获取一个文件夹作为输入,处理文件夹中的文件,并将输出写入hdfs。但是,它考虑的是输入文件夹中的单个文件,并将单个文件写入输出。这是文件的源代码https://gist.github.com/ardahal/f0046e50e04fadc28a96
q5lcpyga1#
这将是半自动的,但总比没有好。假设您的输入目录是: /user/hadoop/inpur_dir/input_i.txt ```Path pth = "/user/hadoop/inpur_dir/input_"
/user/hadoop/inpur_dir/input_i.txt
for(int i = 0; i < number_of_image; i++){FileInputFormat.addInputPath(job, pth.suffix(i+".txt") );}
和 这里有多个输出。这比我以前提议的要好
1条答案
按热度按时间q5lcpyga1#
这将是半自动的,但总比没有好。假设您的输入目录是:
/user/hadoop/inpur_dir/input_i.txt
```Path pth = "/user/hadoop/inpur_dir/input_"
for(int i = 0; i < number_of_image; i++){
FileInputFormat.addInputPath(job, pth.suffix(i+".txt") );
}