我有一个四万行的文件,每行一个字,彼此。
我启动hadoop,master,slaves-一切正常:
start-dfs.sh;start-yarn.sh;/opt/spark/sbin/start-master.sh;/opt/spark/sbin/start-slaves.sh
我运行了示例应用程序,其中包括:
/opt/spark/bin/spark-submit --class org.apache.spark.examples.JavaWordCount --deploy-mode cluster --master yarn --driver-memory 2g --executor-memory 2g /opt/spark/examples/jars/spark-examples_2.11-2.0.0.jar hdfs://hadoop-master:9000/input/outputData.fcs
我有一个问题:一旦应用程序正确启动并显示结果,一旦显示错误(并且在重新启动之间我没有做任何更改):
ERROR shuffle.RetryingBlockFetcher: Exception while beginning fetch of 1 outstanding blocks
java.io.IOException: Failed to connect to iws2/172.29.77.40:43688
链接到完整日志时出错
我不知道怎么了。在我的配置文件下面:
yarn-site.xml文件
所有的奴隶和主人都在“主人”,“奴隶”的档案中被正确的设置。
2条答案
按热度按时间qcuzuvrc1#
错误状态为:
无法连接到iws2/172.29.77.40:43688
结果就是网络问题。确保您的集群配置正确,并开始查找有关此的信息。
希望这有帮助。
qncylg1j2#
谢谢你的回复。
来自/opt/hadoop/hadoop/etc/hadoop/(它们在主服务器和从服务器上相同)的文件:
core-site.xml文件
hdfs-site.xml文件
mapred-site.xml文件
我在spark中修改的一个文件(/opt/spark/conf/;主人和奴隶是一样的):
spark-env.sh公司
和主机文件:
/etc/主机
文件“master”和“slaves”在所有节点上都是相同的:slaves,master。
我不知道哪里出了问题。
编辑:
我在capacity-scheduler.xml中更改了:
在yarn-site.xml中:
现在成功了!
第二个选项:我更改了输入文件。
也许对其他人有用。