flink这个报错谁能帮忙吗[阿里云实时计算 Flink版]

[org.apache.flink.runtime.source.coordinator.SourceCoordinator]Uncaught exception in the SplitEnumerator for Source Source: MySQL Source while starting the SplitEnumerator.. Triggering job failover. java.lang.NoClassDefFoundError: org/apache/flink/shaded/guava30/com/google/common/util/concurrent/ThreadFactoryBuilder 这个报错谁能帮忙吗?flink 13.6 + flink_cdc_2.3.0

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====
2 条回复 A 作者 M 管理员
  1. 这个报错信息显示缺少 Guava 30 的相关类文件,可能是因为 Flink 1.13.6 自带的 Guava 版本与 flink_cdc_2.3.0 中使用的 Guava 版本不兼容导致的。您可以尝试以下解决方案:

    1. 确认 Flink 1.13.6 中自带的 Guava 版本号,确保其版本不低于 30.1.1-jre;
    2. 确认 flink_cdc_2.3.0 中所使用的 Guava 版本,尝试升级至 30.1.1-jre 或更高版本;
    3. 如果当前版本不兼容,可以尝试将 flink_cdc_2.3.0 中使用 Guava 相关的依赖,改为与 Flink 1.13.6 中自带依赖的 Guava 版本一致;
    4. 如果以上方案均不可行,可以将 Guava 相关的依赖,打包成一个单独的 jar 文件,并将其放到 Flink 程序的 lib 目录下,以确保 Flink 程序可以正常加载所需要的 Guava 类库。
  2. 参考文档https://www.cnblogs.com/30go/p/15370240.html,此回答整理自钉群“【③群】Apache Flink China社区”

  3. 一般是由于 Flink 作业在启动时遇到了问题。具体来说,这个错误可能是由于在启动 Flink 作业时,某些依赖项未能正确加载或配置。

    以下是一些可能导致这个错误的原因:

    1、依赖项未正确加载或配置:确保你的 Flink 作业正确地加载了所需的依赖项,例如 Flink 的 JDBC 驱动程序。

    2、配置文件不正确:确保你的 Flink 作业的配置文件正确地配置了所需的依赖项和参数。

    3、环境变量未正确设置:确保你的 Flink 作业的环境变量正确地设置了所需的依赖项和参数。

    4、数据源未正确配置:确保你的 Flink 作业正确地配置了数据源,并且数据源的配置文件正确地配置了所需的依赖项和参数。

    如果你已经尝试了上述步骤,但仍然无法解决问题,请尝试查看 Flink 作业的日志文件,以了解更多详细信息。