pentaho-mapreduce hortonworks环境中的作业抛出错误

0g0grzrc  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(309)

我遇到了一个奇怪的问题。pentaho数据集成提供了示例作业“单词计数作业”,以便理解mapreduce作业。
我正在学习mapreduce,我真的被一个奇怪的错误弄糊涂了。
错误是:

"Caused by: java.io.IOException: Cannot initialize Cluster. 
Please check your configuration for mapreduce.framework.name
and the correspond server addresses."

我已经尝试了我所有的方法来解决这个问题,从改变pentaho数据集成中的“插件属性”文件到重新安装pentaho shim,但都没有用。
根据作业的流程,文件正确地从本地(pentaho数据集成正在运行的地方)传输到hdfs服务器,但mapreduce作业启动时抛出错误。

alen0pnh

alen0pnh1#

终于破解了。这个错误是因为在core-site.xml文件中,集群的“ip地址”被我提到,其中“主机名”被集群识别。因此,由于这种模糊性,这一错误正在发生。
万岁!!

相关问题