我使用的是ApacheFlink1.6.0集群。我们在工作中使用flinkkafkaconsumer011。已启用检查点(statebackend为rocksdb,间隔5s,超时1分钟,检查点之间的最小暂停1s,最大并发检查点1)。当我在本地ide中执行作业时,一切都是成功的。但是当作业在远程flink集群中执行时,不会读取任何事件(使用 startFromEarliest
,我确定kafka主题中有很多事件消息),通过查看作业日志,没有错误日志,只找到一些警告消息: WARN org.apache.flink.streaming.connectors.kafka.internal.Kafka09Fetcher - Committing offsets to Kafka takes longer than the checkpoint interval. Skipping commit of previous offsets because newer complete checkpoint offsets are available. This does not compromise Flink's checkpoint integrity.
我应该忽略这些警告信息吗?为什么flink-kafka连接器从最早的偏移量读取事件?
暂无答案!
目前还没有任何答案,快来回答吧!