Mesos记忆极限的Spark

x8goxv8g  于 2021-06-26  发布在  Mesos
关注(0)|答案(0)|浏览(161)

最近我在Mesos星团上建立了spark。我遇到的最大问题是如何将提供的资源限制为一个任务。
虽然我可以用 spark.cores.max ,没有 spark.memory.max 为了记忆。
当我有任务设置一个大的 spark.executor.memory 例如。 64 GB ,但相当低 spark.executor.cores ,因此,所有内存都被任务占用,无法在群集中启动其他任务。
我想问,是否有办法限制激发任务的记忆。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题