旋转和压缩hdfs审计日志

9avjhtql  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(320)

我想修改hdfs审计日志的log4j配置。如果文件大小大于100mb或在业务结束时,则必须压缩日志文件。文件必须循环结束。
我试图编辑日志配置,但文件大小将被忽略。
致以最诚挚的问候
多米尼克

hdfs审核日志记录

hdfs.audit.logger=INFO,console
 log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=${hdfs.audit.logger}
 log4j.additivity.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=false
 log4j.appender.DRFAAUDIT=org.apache.log4j.rolling.RollingFileAppender
 log4j.appender.DRFAAUDIT.File=${hadoop.log.dir}/hdfs-audit.log
 log4j.appender.DRFAAUDIT.layout=org.apache.log4j.PatternLayout
 log4j.appender.DRFAAUDIT.layout.ConversionPattern=%d{ISO8601} %p %c: %m%
 log4j.appender.DRFAAUDIT.rollingPolicy=org.apache.log4j.rolling.FixedWindowRollingPolicy
 log4j.appender.DRFAAUDIT.MaxBackupIndex=2
 log4j.appender.DRFAAUDIT.triggeringPolicy=org.apache.log4j.rolling.SizeBasedTriggeringPolicy
 log4j.appender.DRFAAUDIT.MaxFileSize=100MB
 log4j.appender.DRFAAUDIT.rollingPolicy.ActiveFileName=${hadoop.log.dir}/hdfs-audit.log
 log4j.appender.DRFAAUDIT.rollingPolicy.FileNamePattern=${hadoop.log.dir}/hdfs-audit-%i.log.gz

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题