pyspark AWS r4.16x大型群集中的核心数

xt0899hw  于 2023-03-07  发布在  Spark
关注(0)|答案(1)|浏览(134)

我有一个10节点AWS r4.16xlarge集群,在spark UI的Executor选项卡下,每次旋转集群时,“cores”下的数字都不一样,有时显示200,有时显示300。我不确定这是否与动态分配有关。我想知道的是集群配置中可用核心的总数。这样我就可以相应地设置Spark参数。

9nvpjoqh

9nvpjoqh1#

由于每个节点有64个核心,因此集群中总共有640个核心可供使用。但是,您不应假定可以使用所有640个核心,因为核心可能在不同的集群管理器中保留。例如,在Spark on Kubernetes中,您需要为每个节点中的代理和DNS保留至少一个核心。如果您使用某些监视解决方案(如Prometheus),您可以检查资源利用率。
如果你在提交Spark应用时,你的应用中有不同数量的内核,这与动态分配有关,你应该将spark.dynamicAllocation.enabled设置为false,并通过spark.driver.coresspark.executor.cores进行配置。

相关问题