最近我在Mesos星团上建立了spark。我遇到的最大问题是如何将提供的资源限制为一个任务。
虽然我可以用 spark.cores.max
,没有 spark.memory.max
为了记忆。
当我有任务设置一个大的 spark.executor.memory
例如。 64 GB
,但相当低 spark.executor.cores
,因此,所有内存都被任务占用,无法在群集中启动其他任务。
我想问,是否有办法限制激发任务的记忆。
最近我在Mesos星团上建立了spark。我遇到的最大问题是如何将提供的资源限制为一个任务。
虽然我可以用 spark.cores.max
,没有 spark.memory.max
为了记忆。
当我有任务设置一个大的 spark.executor.memory
例如。 64 GB
,但相当低 spark.executor.cores
,因此,所有内存都被任务占用,无法在群集中启动其他任务。
我想问,是否有办法限制激发任务的记忆。
暂无答案!
目前还没有任何答案,快来回答吧!