如何快速优雅的用Know Streaming创建Topic

简介: 如何快速优雅的用Know Streaming创建Topic

1操作流程

①、点击新增Topic

在这里插入图片描述

②、填写Topic的基本信息和配置

在这里插入图片描述

③、点击确认、创建成功!

2操作亮点

简单清晰的操作界面, 让你能够非常快速的创建一个新的Topic; 除了这个基本的功能外,你还可以看到在这里能够针对每个Topic做更细粒度的定制化配置。

配置清理策略

默认情况下, 普通Topic的清理策略为 delete , 而 __consumer_offset的默认清理策略为compact

在这里插入图片描述

delete : 过期则直接把消息删除

compact: 消息紧缩, 如果消息key相同的话,那么value的值就是最近最新的一条。比如说__consumer_offset这个是记录消费组消费的偏移量的信息。同一个消费组消费某个TopicPartition的时候,会把offset消息写入到这个Topic中,每次写入的Key是一样的,但是Value不一样。那获取当前消费组消费的Offset信息的时候,读取的就是这个Key最新的一条。并且消息过期清理的话会把之前的删掉。

测试消息大小

想设置这个Topic的指定大小, 但是却又不知道消息大概有多大?

没事, Know Streaming 为你提供了计算的窗口

在这里插入图片描述在这里插入图片描述

把你的消息体负责到这里面,就会自动展示给你占用的字节数,让你在配置参数属性的时候能够有一个依据。

更多定制化属性配置

这下面的配置,都只是针对的该Topic生效的,  并且这里配置的属性 都是属于动态配置。

关于什么是动态配置可以看:【kafka】kafka的动态配置管理使用和分析

相关文章
|
6月前
|
消息中间件 Kafka 流计算
Flink的分区表订阅功能是通过Kafka的topic分区来实现的
Flink的分区表订阅功能是通过Kafka的topic分区来实现的【1月更文挑战第6天】【1月更文挑战第26篇】
131 1
|
6月前
|
流计算
Flink自定义source、自定义sink
Flink自定义source、自定义sink
109 0
|
消息中间件 SQL Kafka
在 PyFlink 1.13.3 中接收 Kafka 消息
在 PyFlink 1.13.3 中接收 Kafka 消息
500 1
|
6月前
|
消息中间件 分布式计算 Kafka
使用Kafka与Spark Streaming进行流数据集成
使用Kafka与Spark Streaming进行流数据集成
|
消息中间件 存储 Kafka
Apache Kafka - 构建数据管道 Kafka Connect
Apache Kafka - 构建数据管道 Kafka Connect
151 0
|
消息中间件 存储 运维
如何用Know Streaming来查询Kafka的消息
如何用Know Streaming来查询Kafka的消息
如何用Know Streaming来查询Kafka的消息
|
消息中间件 Kafka 流计算
如何快速优雅的用Know Streaming创建Topic
简单清晰的操作界面, 让你能够非常快速的创建一个新的Topic; 除了这个基本的功能外,你还可以看到在这里能够针对每个Topic做更细粒度的定制化配置。
如何快速优雅的用Know Streaming创建Topic
|
消息中间件 存储 数据采集
Streaming 消费 kafka 数据的两种方式|学习笔记
快速学习 Streaming 消费 kafka 数据的两种方式
|
消息中间件 Kafka 流计算
FLINK Producer数据写入到kafka 方法一
FLINK Producer数据写入到kafka
176 0
|
消息中间件 Kafka Windows
【Kafka】(四)Kafka Streams 转换算子详解2
【Kafka】(四)Kafka Streams 转换算子详解2
303 0
【Kafka】(四)Kafka Streams 转换算子详解2