哥们,Flink中我建了个实时计算SQL脚本,往目标表写入数据的时候总是报这个错。它说连接器不是用jdbc-cdc创建的,没有在脚本中定义,那不是连接器类型吗connector.type。哥们,给指导一下,该怎样在脚本中定义连接器呢?谢谢了!
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
是的,连接器的类型是在SQL脚本中定义的,你需要在CREATE TABLE语句中指定连接器的类型。根据你描述的情况,你的连接器类型应该是CDC(Change Data Capture)。
以下是一个使用Flink CDC连接器从Kafka读取数据并写入Hive的示例SQL脚本:
CREATE TABLE my_table (
event_time TIMESTAMP,
event_type STRING,
event_value DOUBLE
) WITH (
'connector.type' = 'kafka-cdc',
'connector.version' = '1.1',
'connector.topic' = 'my_topic',
'connector.group.id' = 'my_group',
'format.type' = 'json',
'format.class' = 'org.apache.flink.connector.kafka.source.JsonKafkaSourceFormat',
'options.bootstrap.servers' = 'localhost:9092',
'properties.bootstrap.servers' = 'localhost:9092'
);
在这个例子中,我们使用了Flink CDC连接器从Kafka读取数据,并将数据写入Hive表。在CREATE TABLE语句中,我们使用了CONNECTOR.TYPE子句来指定连接器的类型为kafka-cdc。同时,我们还指定了一些其他的连接器参数,如Kafka topic、分组ID等。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。