spark能保证每个任务的cpu吗?

py49o6xq  于 2021-07-09  发布在  Spark
关注(0)|答案(1)|浏览(239)

如果我设置cpu.task=1,spark如何保证任务只使用cpu?我记得,cpu调度是由内核完成的,对用户来说是透明的。

kd3sttzy

kd3sttzy1#

它不属于spark,它应该属于底层资源管理器,比如hadoopyarn或mesos。
裁判:
http://spark.apache.org/docs/latest/running-on-yarn.htmlhttpshttp://spark.apache.org/docs/latest/running-on-mesos.html

相关问题