flink在处理kafka中数据,发成错误,导致大量重复数据,该如何解决此问题?[阿里云实时计算 Flink版]

请教各位大佬,flink在处理kafka中数据,发成错误,总会返回上一个checkpoint重新执行,导致大量重复数据,该如何解决此问题?

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====