为什么它可以在main方法中运行而不能在servlet doget方法中运行

wnrlj8wa  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(170)

我确实在EclipseEE中运行了Nutch1.2。如果我在main方法中使用nutch api,那么一切都很好,它可以运行,结果也可以,但是我只是想把它作为一个web项目,所以我使用servlet doget方法(没有修改程序,保持不变),但是在我点击“run on server”之后,它显示:

info ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9000。已尝试0次。info ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9000。已尝试1次。info ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9000。已尝试2次。servlet的servlet.service()返回\u searchresult \u网页抛出异常java.net.connectexception:调用localhost/127.0.0.1:9000连接失败异常:java.net.connectexception:连接被拒绝:org.apache.hadoop.ipc.client.wrapexception(client)上没有进一步的信息。java:767)在org.apache.hadoop.ipc.client.call(客户端。java:743)在org.apache.hadoop.ipc.rpc$invoker.invoke(rpc。java:220)com.sun.proxy.$proxy2.getprotocolversion(未知源代码),org.apache.hadoop.ipc.rpc.getproxy(rpc)。java:359)在org.apache.hadoop.hdfs.dfsclient.createrpcnamenode(dfsclient。java:106)在org.apache.hadoop.hdfs.dfsclient.(dfsclient。java:207)在org.apache.hadoop.hdfs.dfsclient。java:170)位于org.apache.hadoop.hdfs.distributedfilesystem.initialize(distributedfilesystem)。java:82)在org.apache.hadoop.fs.filesystem.createfilesystem(filesystem。java:1378)在org.apache.hadoop.fs.filesystem.access$200(文件系统)。java:66)在org.apache.hadoop.fs.filesystem$cache.get(文件系统)。java:1390)在org.apache.hadoop.fs.filesystem.get(filesystem。java:196)在org.apache.hadoop.fs.filesystem.get(filesystem。java:95)在org.apache.nutch.searcher.nutchbean。java:90)在yuhao.return\u searchresult\u webpage.doget(返回\u searchresult\u webpage。java:63)在javax.servlet.http.httpservlet.service(httpservlet)。java:707)在javax.servlet.http.httpservlet.service(httpservlet。java:820)位于org.apache.catalina.core.applicationfilterchain.internaldofilter(applicationfilterchain)。java:290)在org.apache.catalina.core.applicationfilterchain.dofilter(applicationfilterchain。java:206)在org.apache.catalina.core.standardwrappervalve.invoke(standardwrappervalve。java:233)在org.apache.catalina.core.standardcontextvalve.invoke(standardcontextvalve。java:191)在org.apache.catalina.core.standardhostvalve.invoke(standardhostvalve。java:127)在org.apache.catalina.valves.errorreportvalve.invoke(errorreportvalve。java:103)在org.apache.catalina.core.standardenginevalve.invoke(standardenginevalve。java:109)在org.apache.catalina.connector.coyoteadapter.service(coyoteadapter。java:293)在org.apache.coyote.http11.http11processor.process(http11processor。java:861)位于org.apache.coyote.http11.http11protocol$http11connectionhandler.process(http11protocol)。java:606)在org.apache.tomcat.util.net.jioendpoint$worker.run(jioendpoint。java:489)位于java.lang.thread.run(未知源代码)<

服务器是tomcat6。这似乎是hadoop的连接问题,nutch使用hadoop,我有“hadoop-0.20.2-core.jar,hadoop-core-0.20.2-cdh3u0.jar”。但是我没有发现9000端口被任何程序占用,tomcat占用了808080058009端口。我真的很沮丧。有谁能给我一个关于问题是什么的指导吗?非常感谢你的帮助!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题