各位大佬上午好,请教个问题哈,Flink CDC消费kafka数据使用StreamingFileSink写入hive,当杀死jobmanager的进程时,会自动拉起另外一个jobmanager进程,这时会有一部分inprogress文件始终无法重命名为finished文件,导致hive表里丢了部分数据,除了手动重命名和修改源码之外,请问还有其他办法实现吗?
各位大佬上午好,请教个问题哈,Flink CDC消费kafka数据使用,请问还有其他办法实现吗?[阿里云实时计算 Flink版]
「点点赞赏,手留余香」
还没有人赞赏,快来当第一个赞赏的人吧!