=====这是一个广告位,招租中,联系qq 78315851====
2 条回复 A 作者 M 管理员
  1. Flink目前并不直接支持Oracle Binary Log(OB)。但是,你可以通过使用第三方的CDC工具(如Debezium、Canal等)将OB转换为Flink可以接受的格式(如Avro、JSON等),然后再使用Flink进行处理。

    以下是一种可能的方法:

    1. 使用Debezium或Canal等工具从Oracle数据库的Binary Log捕获变化。

    2. 使用Kafka将捕获的变化数据发布出去。

    3. 使用Flink的Kafka Connector从Kafka中读取数据。

    4. 对读取到的数据进行处理。

    这种方式的优点是可以利用Flink的强大功能(如窗口计算、状态管理等)对数据进行处理,而且可以通过Kafka的分区策略和Flink的并行度来优化性能。

  2. 是的,Flink现在支持Apache ORC(Optimized Row Columnar)格式。Apache ORC是一种列式存储格式,它支持高效的数据压缩和列级别的数据处理,适合存储和处理大规模的数据。

  3. 支持了哈。此回答整理自钉群“实时计算Flink产品交流群”