我无法理解在从hadoop获取输入文件时如何在flink中指定类型信息。我试着这样做:
DataSet<Tuple2<LongWritable,Text>> data =
env.readHadoopFile(new TextInputFormat(), LongWritable.class, Text.class, args[0], job, );
文档说它需要类型信息作为最后一个参数。但我不明白我该怎么做。有人能帮忙吗?
我无法理解在从hadoop获取输入文件时如何在flink中指定类型信息。我试着这样做:
DataSet<Tuple2<LongWritable,Text>> data =
env.readHadoopFile(new TextInputFormat(), LongWritable.class, Text.class, args[0], job, );
文档说它需要类型信息作为最后一个参数。但我不明白我该怎么做。有人能帮忙吗?
2条答案
按热度按时间suzh9iv81#
编码如下:
除此之外,maven pom还需要这种依赖:
qgzx9mmu2#
下面是一个如何在flink中使用hadoopinputformat的简短示例: