flink某一个算子的多个并行子任务中,有没有可能某一个子任务已经close了,别的子任务还没有完成[阿里云实时计算 Flink版]

flink某一个算子的多个并行子任务中,有没有可能某一个子任务已经close了,别的子任务还没有完成open呢?

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====
2 条回复 A 作者 M 管理员
  1. 有这种可能,如果说源端是全量MaxaCompute源表这类的源表,读取完源表数据任务就直接结束了,因为各并行子任务处理的数据级量可能不一致(尤其是有数据倾斜的情况下),部分子任务数据已处理完成,部分子任务还没有开始

  2. 有可能的,各并行子任务处理的数据级量可能不一致,部分子任务数据已处理完成,部分子任务还没有开始。

  3. 你这个得分有界流 和无界流两种场景了

    此答案来自钉钉群“【2】Apache Flink China 社区”