工人是否也需要为spark安装hadoop?

egdjgwm8  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(361)

我已经安装scala、hadoop和spark并成功启动了主节点。我刚刚安装了scala&spark并启动了worker(slave)。所以我困惑的是,haddop是否也应该在worker中设置以运行任务?

9cbw7uwe

9cbw7uwe1#

这个来自官方apachespark的链接展示了如何配置spark集群。这里清楚地解释了需求,scala和hadoop都是必需的。

相关问题