版本:Flink1.18.0
代码如下:“`
public static void main(String[] args) {
//1、创建TableEnvironment
EnvironmentSettings settings = EnvironmentSettings.newInstance().build();
TableEnvironment tEnv = TableEnvironment.create(settings);
//2、创建source table
Schema schema = Schema.newBuilder()
.column("user", DataTypes.STRING())
.column("url",DataTypes.STRING())
.column("cTime", DataTypes.STRING())
.build();
tEnv.createTemporaryTable( "sourceTable", TableDescriptor.forConnector("kafka")
.schema(schema)
.option("topic","spring_test_kafka_topic")
.option("properties.bootstrap.servers","xxxxx:9092")
.option("properties.group.id","clicklog")
.option("scan.startup.mode","earliest-offset")
.option("format","json")
.build()
);
//3、创建sink table
tEnv.createTemporaryTable("sinkTable",
TableDescriptor.forConnector("print").schema(schema).build());
//4、执行sql查询
//Table resultTable = tEnv.sqlQuery(" select ,userurl,cTime from sourceTable ");
Table resultTable = tEnv.from("sourceTable")
.select($("user"), $("url"),$("cTime"));
//5、输出
resultTable.executeInsert("sinkTable");
}
“`
操作流程:运行代码报错:
请问是什么原因呢,请大佬指点
以下为热心网友提供的参考意见
该错误通常是由于您在连接外部Kafka时没有正确配置 connectors 所致。具体来说,这个错误是由于在创建 Kafka Connector 时,缺少必要的配置项导致的。另外,可能是由于字段名不正确导致的报错。在这种情况下,您需要检查您的代码,确保字段名在 MySQL CDC 表中定义正确。可以通过 scan.mode 参数设置 Paimon 源表的消费位点。如果您的问题与 Paimon 源表的消费位点相关,您可以尝试更改 scan.mode 参数以解决问题。https://help.aliyun.com/zh/flink/support/faq-about-upstream-and-downstream-storage
—来自实时计算 Flink版产品文档