因此,我们有一个用例,我们需要每天两次复制超过1000条Kafka消息并更新DB。我正在考虑使用Kafka流,并想知道是否使用压缩主题更好,然后使用流来查询主题?有可能吗或者将数据保存在DB中并每天更新会更好。有什么建议吗?
dfty9e191#
几千条信息不算多。但是,如果每个值实际上并没有改变那么多,那么最好使用更改数据捕获技术,而不是执行计划的批量加载。Kafka Streams可以工作,但Kafka Connect和您当前正在阅读的任何系统(假设不是文件)也可以工作。
1条答案
按热度按时间dfty9e191#
几千条信息不算多。但是,如果每个值实际上并没有改变那么多,那么最好使用更改数据捕获技术,而不是执行计划的批量加载。
Kafka Streams可以工作,但Kafka Connect和您当前正在阅读的任何系统(假设不是文件)也可以工作。