从spark日志中获取数据沿袭

ztmd8pv5  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(292)

我正在探索从spark程序的spark日志中获取数据沿袭信息的方法。
我正在寻找类似kafka主题或表格spark程序读取或写入的信息,这样我们就可以在运行时获得这些信息,并构建端到端的数据移动流。有人探索过这样的框架吗。
当我有信息日志级别设置时,我可以得到关于输入kafka read和表的信息,但是如果数据被发送到kafka topic或输入表read,我就不会得到信息。
谢谢你的帮助。
谢谢和问候。

cxfofazt

cxfofazt1#

我通过在spark程序调试时启用日志级别来分析这个问题。您可以获得事件的详细堆栈跟踪。
你可以追踪
Kafka主题名的输入读取
它从哪个数据库表中读取
它正在写入哪些db表
当做:

相关问题