sqoop导入hdfs中的新行字符处理

isr3a4wc  于 2021-06-03  发布在  Sqoop
关注(0)|答案(1)|浏览(352)

我遇到了一种情况,需要使用sqoop将数据从postgres迁移到hdfs,将该文件复制到s3并创建hive外部表。我面临的问题是,在postgres的一些字段中,我的数据有新行字符。我如何处理这个问题来迁移到hdfs?我知道它可以在hive中完成,但需要知道如何在hdfs中完成。
正在寻求帮助。。。。

kqlmhetl

kqlmhetl1#

sqoop可以通过选择orc或avro文件生成而不是文本来处理包含新行的文本字段。
顺便说一句,如果您想连接postgres和hdfs以从postgres导入/导出数据,我建议您看看apachespark,特别是spark postgres库,它支持文本字段中的换行。

相关问题