如何在pyspark中添加警告作为错误

mrphzbgm  于 2023-05-21  发布在  Spark
关注(0)|答案(1)|浏览(165)

我有一个pyspark作业,它抛出了一个警告Java.Lang.NoSuchFieldException。发出警告后,spark作业将运行并完成。
如何将此警告设置为log4j文件中的错误,以便在出现此警告时将其视为错误,并且作业将失败

bis0qfac

bis0qfac1#

1.在Spark应用程序中找到log4j配置文件。该文件通常命名为log4j.properties或log4j.xml。
1.在文本编辑器中打开log4j配置文件。
1.找到定义日志级别和日志附加器的部分。
1.添加或修改日志级别配置,以将警告级别视为错误。对于log4j.properties,添加以下行:
log4j.logger.org.apache.spark=WARN, error_console或xml,取决于您的配置<root> <level value="INFO"/> <appender-ref ref="console"/> </root> <logger name="org.apache.spark" additivity="false"> <level value="WARN"/> <appender-ref ref="error_console"/> </logger>
这个配置指定包org.apache.spark的日志记录器应该具有WARN的日志级别和名为error_console的附加器。
1.配置error_console appender以将日志消息重定向到文件或其他输出。例如,您可以为www.example.com添加以下行log4j.properties:
log4j.appender.error_console=org.apache.log4j.ConsoleAppender log4j.appender.error_console.layout=org.apache.log4j.PatternLayout log4j.appender.error_console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
您可以修改appender配置,将日志消息重定向到您选择的文件或特定输出。
完成这些更改后,log4j配置将把来自org.apache.spark包的警告视为错误。如果Spark使用适当的日志级别记录了您提到的警告,它将触发配置的错误级别,并且Spark作业将因此失败。
希望能帮上忙。

相关问题