如何将hawq中的数据推送到greenplum中?

yruzcnhs  于 2021-06-02  发布在  Hadoop
关注(0)|答案(2)|浏览(484)

我有一个不稳定的客户,他想在一些预处理之后将数据从hawq推送到greenplum。有什么办法吗?如果没有,是否可以在greenplum中创建一个外部表,从运行hawq的hdfs中读取它?
任何帮助都将不胜感激。

vmdwslir

vmdwslir1#

最简单的方法是使用外部可写表将数据从hawq推送到hdfs,然后使用gphdfs协议使用外部可读表从greenplum读取数据。我认为这是最快的选择。
另一种选择是将数据存储在hdfs上的gzip csv文件中,并直接从hawq使用它们。这样,当您需要greenplum中的数据时,您可以用与外部表相同的方式来查询它

93ze6v8z

93ze6v8z2#

hawq和greenplum一样,只有底层存储是hdfs,
一种方法是,您可以在hawq中创建一个externale(可写)表,它将您的数据写入一个文件,然后您可以在greenplum中创建一个externale(可读)表,它将从创建的文件中读取数据
另一种使用标准输入/输出从一台服务器复制到另一台服务器的方法,当需要将数据从开发环境复制到产品时,我会多次使用它,反之亦然
另一种方法是使用pg\u dump/gp\u dump为特定表创建备份表,然后使用pg\u restore/gp\u restore进行还原
谢谢

相关问题