hadoop—在配置单元表中动态存储spark作业的结果

jjhzyzn0  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(244)

我将运行多个Spark作业一天,我需要存储在一个Hive表中的每一个Spark作业的结果动态作业完成后。
例如,假设spark jobs的结果如下

job1: a,344

job2: b,456

job3: c,6789

我需要下表中的结果

配置单元表:spark\u结果

spark_results.id   spark_results.value

    a                  344
    b                  456
    c                  6789

有什么办法吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题