将scala spark处理结果插入apachedruid

ha5z0ras  于 2021-05-17  发布在  Spark
关注(0)|答案(0)|浏览(271)

我使用spark和scala处理了一个原始文件,得到了一个Dataframe作为最终结果。现在我想把这个结果添加到apachedruid中。我能把Dataframe直接插入到druid吗?或者我可以用我写Dataframe的文件吗?请不要告诉我这个处理是在一个时间表下运行的,我想把每个结果都插入到druid中。
这是我用来将结果集写入文件的代码。

val now = Calendar.getInstance().getTime
//write into file
joinProcess.repartition(1).write.mode("append").option("header", "true").csv(Conf.processPath + "/result-" + now + ".csv")

感谢您的帮助。
谢谢您。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题