运行最新的Kafka Helm 图表,https://github.com/confluentinc/cp-helm-charts,我们正经历着巨大的、呈指数级增长的内存泄漏,导致gcp集群在运行两天后崩溃。我已经提出了这个问题https://github.com/confluentinc/cp-helm-charts/issues/296,但无济于事。
我仍然无法追踪泄漏的源头,但我认为它可能来自普罗米修斯出口商。
是否有任何已知的解决方案?
更新,
禁用了图表中的jmx值,但我们仍然遇到大量泄漏,大部分来自控制中心吊舱
1条答案
按热度按时间epggiuax1#
有时,陷入崩溃循环的消费者可能会积累大量荒谬的内存。我们花了很长时间追踪一个很快就填满了数兆字节信息的,结果它把崩溃日志作为记录提交了。仔细检查消费者和生产商,以防类似情况发生