我使用spark和scala处理了一个原始文件,得到了一个Dataframe作为最终结果。现在我想把这个结果添加到apachedruid中。我能把Dataframe直接插入到druid吗?或者我可以用我写Dataframe的文件吗?请不要告诉我这个处理是在一个时间表下运行的,我想把每个结果都插入到druid中。
这是我用来将结果集写入文件的代码。
val now = Calendar.getInstance().getTime
//write into file
joinProcess.repartition(1).write.mode("append").option("header", "true").csv(Conf.processPath + "/result-" + now + ".csv")
感谢您的帮助。
谢谢您。
暂无答案!
目前还没有任何答案,快来回答吧!