根据文档,Elasticsearch团队建议每个Elasticsearch节点的内存应略低于32GB。现在我的问题是,这是否也适用于专用机器学习节点。即使我们给予专用机器学习节点超过32GB的内存,可能会产生什么影响。
dced5bon1#
HEAP不超过32 GB,不是RAM,正确的容量在26 GB到30 GB之间(因系统而异,但默认值为31 GB)。
对于专用ML节点,这与数据节点没有什么不同,此处显示的是默认计算,即31GB最大堆
1条答案
按热度按时间dced5bon1#
HEAP不超过32 GB,不是RAM,正确的容量在26 GB到30 GB之间(因系统而异,但默认值为31 GB)。
对于专用ML节点,这与数据节点没有什么不同,此处显示的是默认计算,即31GB最大堆