我们在hdfs 2.7.3上运行了一个spark流应用程序,使用yarn作为资源管理器….在运行应用程序时。。这两个文件夹
/tmp/hadoop/data/nm-local-dir/filecache
/tmp/hadoop/data/nm-local-dir/filecache
正在填满磁盘。。。。。
因此,我的研究发现,在yarn-site.xml中配置这两个属性会有所帮助
<property>
<name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
<value>2000</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.target-size-mb</name>
<value>2048</value>
</property>
我已经在每个namenode和masternode上配置了它们..并在masternode上重新启动了yarn..但似乎仍然没有帮助…请告诉我是否缺少任何东西…在进行配置更改时…这是yarn-site.xml
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hdfs-name-node</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>16384</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>6</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>16384</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:///tmp/hadoop/data/nm-local-dir</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
<value>2000</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.target-size-mb</name>
<value>2048</value>
</property>
</configuration>
更新:我尝试使用此属性,但仍无法清理,磁盘已满
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:///tmp/hadoop/data/nm-local-dir,file:///tmp/hadoop/data/nm-local-dir/filecache,file:///tmp/hadoop/data/nm-local-dir/usercache</value>
</property>
1条答案
按热度按时间vq8itlhq1#
你说文件夹“/tmp/hadoop/data/nm local dir/filecache”已经满了,所以应该定期清理。
但是你为清理指定的参数,具体来说,“yarn.nodemanager.localizer.cache.cleanup.interval ms”和“yarn.nodemanager.localizer.cache.target size mb”适用于“/tmp/hadoop/data/nm local dir/filecache”,但“file:///tmp/hadoop/data/nm local dir”的“yarn.nodemanager.local dirs”值不包括路径中的“filecache”。将值“file:///tmp/hadoop/data/nm local dir”修复为“file:///tmp/hadoop/data/nm local dir/filecache”。