hdfs—使用sqoop将大型机数据摄取到hadoop中

4xy9mtcn  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(357)

我发现sqoop1.4.6可以连接到大型机,它可以从大型机pds中提取数据,并将数据放入hdfs/hive/hbase或acumulo中。
我想知道它是支持压缩十进制数据类型还是只支持简单的数据类型?有人能帮助我理解sqoop1.4.6支持哪些大型机文件格式吗。
提前谢谢
参考https://sqoop.apache.org/docs/1.4.6/sqoopuserguide.html

6qqygrtg

6qqygrtg1#

嗨根据我的分析压缩十进制是不支持的,事实上,如果该文件已压缩十进制数据,其余的数据是混乱的,以及。请参阅http://rbheemana.github.io/reality-of-sqoop-mainframe/ 更多细节。

6fe3ivhb

6fe3ivhb2#

根据文件“9.2.6文件格式”。。。
"... 默认情况下,数据集中的每条记录都存储为文本记录,末尾有一个换行符。假设每个记录都包含一个名为default\u列的文本字段。当sqoop将数据导入hdfs时,它会生成一个java类,该类可以重新解释它创建的文本文件……”

相关问题