无法在我的集群上启动spark

zqdjd7g9  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(369)

日志文件spark-hadoop-org.apache.spark.deploy.master.master-1-master.outis中的信息如下:

日志文件spark-hadoop-org.apache.spark.deploy.worker.worker-1-master.out中显示:

请帮帮我。我的spark版本是:spark-1.6.0-bin-without-hadoop.tgz scala版本是:2.10.5 hadoop版本是:2.6.0

14ifxucb

14ifxucb1#

您需要在每个spark workers节点和spark master节点的$spark\u home/lib目录下添加slf4j.api-1.6.1.jar。完成后,请重新启动主/辅进程。

相关问题