我曾尝试使用apachekafka connect和mongodb sink connector(connector)
当我使用avro格式时,除了一个问题外,它还能正常工作,我必须用一个分区创建主题,因为连接器使用record.kafkaoffset()作为新mongo记录的\u id(因此使用多个分区时,我可以为不同的记录获得相同的id)。
我该怎么修?
我想用json测试它,所以我为此创建了一个新的主题。并将转换器配置更改为jsonconverter。当我运行它时,会出现以下错误:
java.lang.classcastexception:java.util.hashmap不能强制转换到org.apache.kafka.connect.mongodb.mongodbsinktask.put(mongodbsinktask)的org.apache.kafka.connect.data.struct。java:106)在org.apache.kafka.connect.runtime.workersinktask.delivermessages(workersinktask。java:280)在org.apache.kafka.connect.runtime.workersinktask.poll(workersinktask。java:176)在org.apache.kafka.connect.runtime.workersinktaskthread.iteration(workersinktaskthread。java:90)在org.apache.kafka.connect.runtime.workersinktaskthread.execute(workersinktaskthread。java:58)在org.apache.kafka.connect.util.shutdownablethread.run(shutdownablethread。java:82)
这个连接器和json一起工作吗?
暂无答案!
目前还没有任何答案,快来回答吧!