如何获得SparkyR的跟踪作业url?

h5qlskok  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(196)

当我启动spark或hive作业并查看日志时,我可以看到一行代码告诉我如何跟踪作业执行

INFO  : The url to track the job: https://host.com:8090/proxy/application_1544050868879_3083/

但是,当我用sparklyr开始一项工作时,我没有看到任何关于日志url的信息。
在作业仍在运行时,是否有方法获取该作业的跟踪url?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题