有没有可能在Kafka的数据被消耗之后再删除这些数据?我使用Kafka和zookeeper相结合,以交换2个节点之间的一些数据。我对Kafka的记忆有问题,因为我插入了太多的数据。通过这种方式,我需要在使用完kafka之后清除其中的数据。有可能吗?
vmdwslir1#
您可以尝试更改保留时间。
kafka-topics.sh --zookeeper localhost:13003 --alter --topic MyTopic --config retention.ms=1000
但是要确定的是,不管消息是否被消费,它都会被删除。
1条答案
按热度按时间vmdwslir1#
您可以尝试更改保留时间。
但是要确定的是,不管消息是否被消费,它都会被删除。