如何使用kafka在logstash中保留日志更长时间?

dm7nw8vv  于 2021-06-08  发布在  Kafka
关注(0)|答案(1)|浏览(444)

目前我使用redis->s3->elasticsearch->kibana堆栈来管道化和可视化我的日志。但由于ElasticSearch中的大量数据,我可以保留日志长达7天。
我想把kafka集群放在这个堆栈中,并将日志保留更多天。我在考虑跟着这堆。
app nodes管道日志到kafka->kafka集群->elastics search集群->kibana
如何使用kafka将日志保留更多天?

zysjyyx4

zysjyyx41#

查看apachekafka代理配置,有两个属性决定何时删除日志。一个是时间,另一个是空间。

log.retention.{ms,minutes,hours}
log.retention.bytes

另请注意,如果同时设置了log.retention.hours和log.retention.bytes,则当超过任一限制时,我们将删除一个段。
这两个命令在kafka中何时删除日志。log.retention.bytes默认为-1,我很确定将其保留为-1只允许time config单独确定日志何时被删除。
因此,要直接回答您的问题,请将log.retention.hours设置为您希望保留数据的小时数,并且不更改log.retention.bytes配置。

相关问题