我看到这个问题,但似乎没有一个修复工作为我。或者更可能是我做错了,因为我对这一点非常陌生。
(在eclipse中工作)我得到了错误 The import org.apache.hadoop cannot be resolved
在以下行上:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.filecache.DistributedCache;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
import org.apache.hadoop.mapred.*;
我以为我已经添加了正确的外部jar,但显然不是。我有的在下面。我通过转到项目的属性、java构建路径、库、addexternaljar来添加它们 commons-codec-1.9.jar commons-fileupload-1.3.1.jar commons-io-2.4-javadoc.jar commons-io-2.4-sources.jar commons-io-2.4-testsources.jar commons-io-2.4-tests.jar commons-io-2.4.jar commons-logging-1.2.jar fluent-hc-4.4.jar httpclient-4.4.jar httpclient-cache-4.4.jar httpclient-win-4.4.jar httpcore-4.4.jar httpmime-4.4.jar jna-4.1.0.jar jna-platform-4.1.0.jar
1条答案
按热度按时间dauxcl2d1#
你好像还没找到依赖关系。
hadoop开发不是一件小事,它有很多依赖关系,而且很快就会变得一团糟。为什么不使用像maven这样的依赖管理器呢?然后,您可以简单地将其添加到pom.xml中,让它为您完成繁重的工作:
如果您不熟悉maven,那么在so和其他地方有大量关于如何使用eclipse设置基本maven项目的信息!