运行spark时通过Yarn最大限度地利用vcores

xqnpmsa8  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(361)

我有一个虚拟化集群,4个节点中有Hadoop2.9。每个节点有16个cpu和126 gb ram。
如果我尝试将yarn.scheduler.minimum-allocation-vcore设置为不同于1的值,那么当我运行spark submit声明yarn为master时,每个容器只使用1个vcore。
有没有办法克服这个问题?
谢谢!

kmb7vmvb

kmb7vmvb1#

使用 spark.executor.cores . 来自文档:
每个执行器上要使用的核心数。在独立和mesos粗粒度模式下,设置此参数允许应用程序在同一个worker上运行多个执行器,前提是该worker上有足够的内核。否则,每个应用程序只能在每个辅助进程上运行一个执行器。
默认情况下:
1Yarn模式

相关问题