是的,Flink CDC可以从Kafka消费数据并写入到Doris中。Flink CDC支持从多种数据库(如MySQL、MariaDB、PG、Oracle、MongoDB 、Oceanbase、TiDB、SQLServer等)捕获变更数据,并将这些变更实时同步到下游存储,包括Kafka、Pulsar消息队列,以及Hudi、Iceberg、Doris等数据仓库及数据湖中。
要使用Flink CDC从Kafka消费数据并写入Doris,你需要按照以下步骤操作:
- 首先,你需要在Doris中创建一个目标表,用于接收从Kafka消费的数据。
- 然后,你需要使用Flink CDC从Kafka消费数据,并将这些数据转换为Doris表所需的格式。
- 最后,你需要使用Flink的JDBC connector将处理后的数据写入Doris数据库。
在提交Flink作业时,你需要指定连接到Doris数据库所需的JDBC驱动程序和连接参数。