hadoopmapreduce中外文文本中的java垃圾字符

332nm8kg  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(304)

我有一个应用程序,在那里我必须阅读hbase和写入文本格式的文件。一切工作正常,但从客户的要求是,他们需要有utf-8-bom编码格式的文件。我没有明确提到任何编码格式,默认情况下它是utf-8格式。
是否还有其他方法可以写入utf-8-bom格式的文件。
请考虑我正在mapreduce中做所有这些。
我已经尝试了以下的驱动程序代码的变化,但后来也出来了utf-8格式。

hbaseConf.set("mapreduce.child.java.opts", "-Xmx6553m -Dfile.encoding=UTF-8-BOM");

提前谢谢。。

wnavrhmk

wnavrhmk1#

配置中不需要提及额外的编码。我已经通过在第一行添加“\ufeff”解决了这个问题,对我来说效果很好。输出文件中也没有额外的字符。现在一切正常

相关问题