"data":[{"id":"100","memo":"123","update_time":"2020-09-03 16:30:11","name":"xxx"},{"id":"200","memo":"456","update_time":"2020-09-03 16:30:11","name":"xxx"}]当insert语句有多个values时,消息中data也是多个,使用flink计算计数很麻烦~
6rqinv9w1#
CanalKafkaProducer 自己修改一下这个代码就行了
yv5phkfx2#
也可以将rowsCount值暴露到对应kafka的key中进行处理,单条 or 多条是一种针对性能优化的 trade-off
rowsCount
j8yoct9x3#
你好,我也遇到这种问题,插入100条数据想推送到钉钉,但是他合并成了1条data里面100小条,请问可以帮忙修改一下rocket的代码么?
qyzbxkaa4#
请教下这个功能现在有新增开关没?
8aqjt8rx5#
我是用canal-python 客户端处理的 发自我的iPhone…
在 2021年4月14日,17:18,gooddr***@***.***> 写道: 请教下这个功能现在有新增开关没? — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
5条答案
按热度按时间6rqinv9w1#
CanalKafkaProducer 自己修改一下这个代码就行了
yv5phkfx2#
也可以将
rowsCount
值暴露到对应kafka的key中进行处理,单条 or 多条是一种针对性能优化的 trade-offj8yoct9x3#
你好,我也遇到这种问题,插入100条数据想推送到钉钉,但是他合并成了1条data里面100小条,请问可以帮忙修改一下rocket的代码么?
qyzbxkaa4#
请教下这个功能现在有新增开关没?
8aqjt8rx5#
我是用canal-python 客户端处理的 发自我的iPhone…
在 2021年4月14日,17:18,gooddr***@***.***> 写道: 请教下这个功能现在有新增开关没? — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.