使用behemoth和map reduce转换为tika时配置对象时出错

moiiocjp  于 2021-06-03  发布在  Hadoop
关注(0)|答案(2)|浏览(376)

我正在运行命令,使用MapReduce将庞然大物语料库转换为tika,如本教程所示
我在执行此操作时遇到以下错误:

13/02/25 14:44:00 INFO mapred.FileInputFormat: Total input paths to process : 1
13/02/25 14:44:01 INFO mapred.JobClient: Running job: job_201302251222_0017
13/02/25 14:44:02 INFO mapred.JobClient:  map 0% reduce 0%
13/02/25 14:44:09 INFO mapred.JobClient: Task Id : attempt_201302251222_0017_m_000000_0, Status : FAILED
java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:387)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:325)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:416)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)
    at org.apache.hadoop.mapred.Child.main(Child.java:264)
attempt_201302251222_0017_m_000001_0: log4j:WARN No appenders could be found for logger (org.apache.hadoop.hdfs.DFSClient).
attempt_201302251222_0017_m_000001_0: log4j:WARN Please initialize the log4j system properly.
13/02/25 14:44:14 INFO mapred.JobClient: Task Id : attempt_201302251222_0017_m_000001_1, Status : FAILED
java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:387)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:325)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
    at java.security.AccessController.doPrivileged(Native Method)

我无法理解确切的问题。可能的原因是什么?是否需要将任何jar从behemoth/tika复制到hadoop工作目录?

mzaanser

mzaanser1#

我也有同样的问题。本页所述的程序对我很有帮助。在我运行“mvn clean install”之后,tika作业按照教程中的描述工作。

z8dt9xmd

z8dt9xmd2#

你提到的教程已经过时了。参考wiki教程。这些日志并没有提供任何有用的信息来说明问题可能是什么,但是让庞然大物工作所需要的只是每个模块的作业文件。如果在服务器上运行hadoop,只需在作业文件上使用hadoop命令,或者为了简单起见,使用behemoth脚本。顺便说一句,digitalpebble邮件列表将是一个更好的询问庞然大物问题的地方
hth公司
朱利安

相关问题