kafka:messagesizetoolargeexception当增加批处理大小时

3bygqnnd  于 2021-06-07  发布在  Kafka
关注(0)|答案(0)|浏览(403)

我正在使用kafka4net api发送kafka消息。消息的长度约为10kb,包含二进制文件的字节。我必须从文件系统中读取二进制文件并通过Kafka发送。
我有一个循环,使这个任务成批100个文件。我从内网下载文件,然后通过Kafka发送(i、 e,我下载100个文件,然后我阅读100个文件并发送100条Kafka信息)。效果很好。但我意识到,如果我使用1000个文件循环,就会抛出一个messagetoolargeexception。
kafka消息大小保持不变,唯一改变的是批处理大小(出现了消息峰值,因为在一小段时间内发送了1000条消息,而不是100条消息)。
如果我增加这两个配置属性的大小:

replica.fetch.max.bytes
message.max.bytes

以及消费者的以下财产

message.max.bytes

我让它工作。当我增加批处理大小(或多次发送相同的消息以产生相同的效果)时,错误再次出现。
我不明白为什么这个配置属性与这个问题有关,因为它们影响一条消息的大小,而不是同时发送大量消息时增加的批大小、缓冲区大小或队列大小。
¿在短时间内发送大量消息时,我应该考虑配置什么以避免此类错误?为什么会发生这种错误?
谢谢您!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题