一个工人有两个执行者,而spark中每个执行者一个工人

zzwlnbp8  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(257)

我正在使用 spark-1.6 独立资源管理器 client mode . 现在,由于支持运行多个 executorsworker 在Spark里。有人能告诉我在生产环境中运行哪一个的利弊吗?
此外,当spark附带hadoop-2.x的预构建二进制文件时,为什么我们需要设置另一个呢 hadoop 在集群中运行它 yarn 模式。把那些jar装进Spark里有什么意义。那么使用 yarn 当在独立模式下为每个工作者提供多个执行器的灵活性时

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题