Apache Druid接入Kafka实时流数据
一.任务配置文件
使用类型为kafka
{
"type": "kafka",
"dataSchema": {
"dimensionsSpec": {... ...},
"transformSpec":{.
kafka 的有序与无序
同时创建kafka生产者produce,kafka消费者consumer,其中我们的topic创建了3个分区,
生产者发送几条数据,使用命令查看消费。
可以看到刚刚生产的这几条数据,当我退出消费命令,重新使用消费者命令来消费数据时,看一下数据
这时候看到的数据时无序的,总结一点
单个分区:有序
全局分区:无序
1 4肯定是同一个分区的数据,如何保证生产环境下,全局有序呢,先说下必须要保持有序的需求情况,
有一张students表,对表操作的消息发送到kafka中,但是操控表有增加有删除的时候,必须增加先执行
完,才去删除,如果先执行删除了,在insert增加就是错误的了。