我最近在研究Kafka节点。我有一些疑问:
下面是一个场景:我说10个主题,每个主题接收的数据量都很大,每条消息大约300kb,每秒5条消息。
现在我想创建一个高级consumer/consumer,以便高效地读取数据。
我试着用一个组id在所有10个主题上创建一个高级消费者。它在小卷上运行良好,但在卷增加时行为怪异。
因此,我计划做以下工作:
1. Create 10 consumers, one for each topic all having different group id.
2. Create 10 consumers with same group id, one for each topic
我想了解组id的意义。在上述情况下,行为会是怎样的。
我们还有Kafka能处理的最大尺寸吗?
暂无答案!
目前还没有任何答案,快来回答吧!