我已经安装scala、hadoop和spark并成功启动了主节点。我刚刚安装了scala&spark并启动了worker(slave)。所以我困惑的是,haddop是否也应该在worker中设置以运行任务?
9cbw7uwe1#
这个来自官方apachespark的链接展示了如何配置spark集群。这里清楚地解释了需求,scala和hadoop都是必需的。
1条答案
按热度按时间9cbw7uwe1#
这个来自官方apachespark的链接展示了如何配置spark集群。这里清楚地解释了需求,scala和hadoop都是必需的。