pyspark spark.driver.memory配置未显示在数据块中

k10s72fa  于 2023-05-06  发布在  Spark
关注(0)|答案(1)|浏览(166)

我正在使用databricks中的spark。我想调整spark.driver.memory的配置。由于默认值是1g,我想增加到14g,因为我的驱动程序的总内存为16 GB,我想充分利用它。当我使用spark.conf.get("spark.driver.memory"),查询此配置时,它给出错误消息"java.util.NoSuchElementException: spark.driver.memory"。有人建议我们需要在集群中使用高级选项来设置此配置。但是我很好奇为什么这会抛出一个错误。

50pmv0ei

50pmv0ei1#

驱动程序和执行器内存在Databricks上自动调整,所以你不需要手动调整。此外,对于可以设置的最大内存大小有一些限制,因为Databricks需要额外的内存用于管理工具-确切描述could be found in the following knowledge base article。执行器内存的近似公式为:

container_size = (vm_size * 0.97 - 4800MB)
spark.executor.memory = (0.8 * container_size)

对于spark.driver.memory,与执行器相比,我们需要多占用约1Gb的内存。

相关问题