我打算使用org.apache.hadoop.mapreduceapi在hadoop2.3.0中实现一个简单的map reduce函数,但是当我尝试运行它时,我得到了以下错误
org.apache.hadoop.mapreduce.lib.input.FileSplit cannot be cast to org.apache.hadoop.mapred.InputSplit.
因为我在mapreduce函数中调用的是
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.conf.*;
import org.apache.hadoop.io.*;
import org.apache.hadoop.mapreduce.*;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
我不知道为什么它一直使用旧的api,是否有一些配置文件我已经修改?
1条答案
按热度按时间fcy6dtqo1#
尝试使用
hadoop dfsadmin -refreshNodes
用于重新网格化节点的命令。以便获取新的api。