各位,我flink读取kafka两个topic数据,然后双流join,把统计数据写到mysql,现在[阿里云实时计算 Flink版]

各位,我flink读取kafka两个topic数据,然后双流join,把统计数据写到mysql,现在需要切换新的kafka集群,要做到业务方无感知,数据不能延迟也不能有误差。我想了下,从checkpoint重启肯定不行了,但是不从checkpoint重启中间状态就没了,有谁遇到过或有什么解决办法吗

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====
1 条回复 A 作者 M 管理员
  1. 兄弟,你批量读取多个kafka的代码怎么写的,项目地址有吗?参考一下呗。

  2. 你再起一个任务,把集群地址换成新的,两边的任务处理逻辑不变,同时处理,直到确定你老集群 没有数据进来就停掉老任务。(此答案整理自【③群】Apache Flink China社区)