0°

Flink1.18.0版本连接外部kafka本地执行测试代码报错[阿里云]

版本:Flink1.18.0
代码如下:“`
public static void main(String[] args) {

    //1、创建TableEnvironment
    EnvironmentSettings settings = EnvironmentSettings.newInstance().build();
    TableEnvironment tEnv = TableEnvironment.create(settings);

    //2、创建source  table
    Schema schema = Schema.newBuilder()
            .column("user", DataTypes.STRING())
            .column("url",DataTypes.STRING())
            .column("cTime", DataTypes.STRING())
            .build();
    tEnv.createTemporaryTable( "sourceTable", TableDescriptor.forConnector("kafka")
            .schema(schema)
            .option("topic","spring_test_kafka_topic")
            .option("properties.bootstrap.servers","xxxxx:9092")
            .option("properties.group.id","clicklog")
            .option("scan.startup.mode","earliest-offset")
            .option("format","json")
            .build()
    );

    //3、创建sink  table
    tEnv.createTemporaryTable("sinkTable",
            TableDescriptor.forConnector("print").schema(schema).build());

    //4、执行sql查询
    //Table resultTable = tEnv.sqlQuery(" select ,userurl,cTime from sourceTable ");
    Table resultTable = tEnv.from("sourceTable")
            .select($("user"), $("url"),$("cTime"));

    //5、输出
    resultTable.executeInsert("sinkTable");
}

“`

操作流程:运行代码报错:

请问是什么原因呢,请大佬指点

以下为热心网友提供的参考意见

该错误通常是由于您在连接外部Kafka时没有正确配置 connectors 所致。具体来说,这个错误是由于在创建 Kafka Connector 时,缺少必要的配置项导致的。另外,可能是由于字段名不正确导致的报错。在这种情况下,您需要检查您的代码,确保字段名在 MySQL CDC 表中定义正确。可以通过 scan.mode 参数设置 Paimon 源表的消费位点。如果您的问题与 Paimon 源表的消费位点相关,您可以尝试更改 scan.mode 参数以解决问题。https://help.aliyun.com/zh/flink/support/faq-about-upstream-and-downstream-storage

—来自实时计算 Flink版产品文档

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====