mapreduce中join操作的java输出

bwntbbo3  于 2021-06-03  发布在  Hadoop
关注(0)|答案(2)|浏览(359)

我正在map reduce中执行连接操作。我把它分成两个文件,文件中的值用分隔符(逗号)分隔。通过对公共实体执行连接操作,我可以从两个输入文件中的一个文件中获得输出。
以下是MapReduce代码:

public class EmpMapReduce {
public static class TokenizerMapper extends Mapper<LongWritable, Text, Text, Text>     
        {
        public void map(LongWritable key, Text value, Context context)
            throws IOException, InterruptedException
                {
        String tokens [] = value.toString().split(",");
        String empid = tokens[0];
        String val = "";
        if(tokens.length != 0)
         {
            for (int cnt = 1; cnt < tokens.length; cnt++)
               {    
               val = val + tokens[cnt] + "\t";
            }
        }

        context.write(new Text(empid), new Text(val));

    }
   }

  public static class MyReducer extends Reducer<Text, Text, Text, Text>
         {
    public void reduce(Text key, Iterable<Text> values,
            Context context) throws IOException, InterruptedException
               {
            String str = "";
        for (Text val : values) 
                     {
            str = str + val.toString() + "\t";
         }

         context.write(key, new Text (str));

     }
  }

  public static void main(String[] args) throws Exception 
        {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args)
            .getRemainingArgs();
    if (otherArgs.length != 3) {
        System.err.println("Usage: EmpMapReduce <in1> <in2> <out>");
        System.exit(2);
    }
    Job job = new Job(conf, "EmpMapReduce");

    job.setJarByClass(EmpMapReduce.class);

    job.setMapperClass(TokenizerMapper.class);
    job.setReducerClass(MyReducer.class);

    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(Text.class);

    job.setInputFormatClass(TextInputFormat.class);

    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(Text.class);

    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    FileInputFormat.addInputPath(job, new Path(otherArgs[1]));
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[2]));

    System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
   }

以下是我使用的两个输入文件内容:

100,name100,10
101,name101,11
102,name102,12
103,name103,13
104,name104,14
105,name105,15
106,name106,16
107,name107,17

第二个输入文件:

100,100000
101,200000
102,300000
103,400000
104,500000
105,600000
106,700000
107,800000

我得到以下输出:

100,name100,10,100000
101,200000,name101,11
102,name102,12,300000
103,400000,name103,13
104,name104,14,500000
105,600000,name105,15
106,name106,16,700000
107,800000,name107,17

现在我关心的是为什么我得到这样的输出:

100,name100,10,100000
101,200000,name101,11

即第一行中的数据首先从一个输入文件复制,而不是从另一个输入文件复制。但第二排则相反。我不知道怎样才能使每一行的数据顺序相同。
另一个问题是:
一旦我以特定的顺序在所有行中有了数据,我就可以执行各种操作,例如:替换name100--->somenewname或在每行末尾添加新的逗号分隔的值,该值具有该行中所有值的总和。

yizd12fk

yizd12fk1#

对于matthew的解决方案,您可能需要将其放入循环中,等待设置所有值以获得正确的结果:

if(!user.equals("") && !trans.equals("")){
       str = str + user+ "\t" + trans+ "\t";
}
bttbmeg0

bttbmeg02#

两个Map器的输出到达reducer的顺序未指定。所以你需要一些方法在减速器中识别它们。
一个简单的解决方案是:
有两个Map器,每个输入一个
每个Map器输出“[type]:[rest of value]”的值
假设您有两种类型(用户、事务),现在每个类型都已标识。
现在在您的reducer中(对于伪代码表示抱歉):

void reduce(..) {
  String user = "";
  String trans = "";

  for(value: values) {
    (type, payload) = value.split();
    if (type == "user") user = payload;
    if (type == "transaction") transaction = payload;
  }

  context.write(user + "\t" + transaction);
}

相关问题