Apache Spark在事件日志中推送了大量信息。如何将自定义事件推送到此事件日志中?Spark是否会公开任何API来实现这一点?或者我可以扩展任何现有的类来实现这一点吗?
xu3bshqb1#
如果您有流查询,则可以扩展“StreamingQueryListener”,然后将其添加到
spark.streams.addListener(new EventCollector(APP_NAME))
字符串其中,
EventCollector(APP_NAME) extends StreamingQueryListener
型编写你自己的方法
onQueryStarted onQueryProgress onQueryTerminated
型方法并在其中放入自定义代码
arknldoa2#
您的类可以扩展org.apache.spark.Logging并使用其中定义的帮助方法:
org.apache.spark.Logging
logInfo("task success") logWarn("didn't receive data") ...
字符串请注意该trait上的 warning:注意:不要在Spark之外使用这个类。它是一个内部实用程序。这可能会在未来的版本中更改或删除。
2条答案
按热度按时间xu3bshqb1#
如果您有流查询,则可以扩展“StreamingQueryListener”,然后将其添加到
字符串
其中,
型
编写你自己的方法
型
方法并在其中放入自定义代码
arknldoa2#
您的类可以扩展
org.apache.spark.Logging
并使用其中定义的帮助方法:字符串
请注意该trait上的 warning:
注意:不要在Spark之外使用这个类。它是一个内部实用程序。这可能会在未来的版本中更改或删除。