将pysparkDataframe输出重定向到日志文件

xurqigkl  于 2021-05-17  发布在  Spark
关注(0)|答案(0)|浏览(280)

我正在用python3.7ide编写pyspark应用程序。因此,我的应用程序将提供Dataframe。我将log4j属性配置如下

log4j.rootCategory=INFO, consoleAppender
log4j.appender.consoleAppender=org.apache.log4j.ConsoleAppender
log4j.appender.consoleAppender.target=System.out
log4j.appender.consoleAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.consoleAppender.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
log4j.rootLogger=INFO, FILE
log4j.appender.FILE=org.apache.log4j.DailyRollingFileAppender
log4j.appender.FILE.File=C:/Users/Srihari Venkatesan/Desktop/logfile.log
log4j.appender.FILE.ImmediateFlush=true 
log4j.appender.FILE.Append=true
log4j.appender.FILE.DatePattern='.' yyyy-MM-dd
log4j.appender.FILE.layout=org.apache.log4j.PatternLayout
log4j.appender.FILE.layout.conversionPattern=%m%n

当我使用下面的命令在终端提交我的spark应用程序时

spark-submit pyspark.py>logfile.txt 2>&1

它正在创建两个文件,一个带有输出,另一个带有日志。
任何人都可以帮助我重定向我的输出文件和日志文件到一个单一的文件使用shell脚本或Spark提交。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题