缺少hadoop s3确认文件

dgiusagp  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(684)

我正在使用hadoop库上传s3中的文件。由于某些度量配置文件丢失,我得到了这个异常

MetricsConfig - Could not locate file hadoop-metrics2-s3a-file-system.properties org.apache.commons.configuration2.ex.ConfigurationException: 

Could not locate: org.apache.commons.configuration2.io.FileLocator@77f46cee[fileName=hadoop-metrics2-s3a-file-system.properties,basePath=<null>,sourceURL=,encoding=<null>,fileSystem=<null>,locationStrategy=<null>]

我当前的配置是

configuration.set("fs.s3a.access.key", "accessKey")
configuration.set("fs.s3a.secret.key", "secretKey")

在何处添加此配置文件?向配置文件中添加什么?

vlurs2pr

vlurs2pr1#

别担心,这只是个恼人的警告。只有当s3a或abfs连接器在一个长寿命的应用程序中运行时,它才是相关的,在这个应用程序中,度量数据被收集并提供给一些管理工具。
在spark conf dir的log4j.properties文件中将日志级别设置为warn

log4j.logger.org.apache.hadoop.metrics2=WARN

相关问题