大神们,在接收kafka数据时候,我已经设置了jvm类型的检查点,然后本地环境启动,接收kafka数据,然后我停止,再启动,还是能接收到同样的kafka数据,好像flink并没有自动往kafka进行ack,这是什么原因呢?StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.enableCheckpointing(5000); env.setStateBackend(new HashMapStateBackend());
大神们,在接收kafka数据时候,我已经设置了jvm类型的检查点,然后本地环境启动,接收kafka数[阿里云实时计算 Flink版]
「点点赞赏,手留余香」
还没有人赞赏,快来当第一个赞赏的人吧!