《Storm分布式实时计算模式》——3.6 Trident状态

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介:

本节书摘来自华章计算机《Storm分布式实时计算模式》一书中的第3章,第3.6节,作者:(美)P. Taylor Goetz Brian O’Neill 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

3.6 Trident状态

我们现在已经给每个aggregator的分组数据进行了计数,现在想将信息进行持久化存储,以便进一步分析。在Trident中,持久化操作从状态管理开始。Trident对状态有底层的操作原语,但不同于Storm API,它不关心要哪些数据会作为状态存储或者如何存储这些状态。Trident在高层提供了下述的状态接口:


53f0a794f2163a69d70eedf033c09cd81cb9aef8

上面提到了,Trident将tuple分组成一批批数据。每批数据都有自己的事务标识符。在前面的接口中,Trident告诉State对象什么时候开始提交状态,什么时候提交状态应该结束。
和function类似,Stream对象也有方法向topology引入基于状态的操作。更具体说,Trident有两种数据流:Stream和GroupedStream。一个GroupedStream是GroupBy操作的结果。在我们的topology中,我们根据HourAssignment function生成的key对tuple进行分组。
在Steam对象中,下列方法允许topology读和写状态信息:

<a href=https://yqfile.alicdn.com/99bdf19045f0caf67fe3e82f5bd65321f335ea6b.png
" >

stateQuery()方法从state生成了一个输入流,不同参数的几个partitionPersist()方法允许topology从数据流中的tuple更新状态信息。partitionPersist()方法的操作对象是每个数据分片。
在Stream对象的方法外,GroupedStream对象允许topology对一批tuple进行聚合统计,并且将收集到的信息持久化在state中。下列代码是GroupedSteam类中和状态相关的方法:


<a href=https://yqfile.alicdn.com/d8e0e8122e7319f4d4cfd645b58d8827706f2fa3.png
" >


<a href=https://yqfile.alicdn.com/add6a5886c57a6801e018a41a8cefbf9f1baca16.png
" >

和Steam对象类似,stateQuery()方法从State生成一个输入数据流。不同参数的几个persistAggregate()方法允许topology从数据流中的tuple更新状态信息。注意GroupedStream方法有一个Aggregator参数,它在信息写入State对象之前执行。
现在考虑将这些function应用到我们的例子中来。在我们的系统中,需要将事件发生的城市、疾病代码、每小时内产生疾病统计量进行持久存储。这样可以生成报表如表3-2所示。


<a href=https://yqfile.alicdn.com/7f7d4bd921bc1b3526f7cb62a8aac1cf54344a70.png
" >

为了实现这个功能,我们需要将聚集操作中生成的统计量进行持久化存储。我们可以使用groupBy函数返回的GroupedStream接口(如前面所示)调用persistAggregate方法。下面代码是示例topology中具体的调用方式:

814f84a7fac2c6805e4b4be214d909ad584ff0b7

要了解持久化存储,我们首先来看这个方法的第一个参数。Trident使用一个工厂类来生成State的实例。OutbreakTrendFactory是我们的topology提供给Storm的工厂类。OutbreakTrendFactory代码如下:

12a5f28c55df7ac1bb625678fdf05e83a05761c2

工厂类返回一个State对象,Storm用它来持久化存储信息。在Storm中,有三种类型的状态。每个类型的描述如表3-3所示。


3b6471ef71a593e194876e2e671bc302de741840

在分布式环境下,数据可能被重放,为了支持计数和状态更新,Trident将状态更新操作进行序列化,使用不同的状态更新模式对重放和错误数据进行容错。接下来会介绍这些模式。
3.6.1 重复事务型状态
在重复事务型状态中,最后一批提交的数据的标识符存在数据中。当且仅当一批数据标识符的序号大于当前标识符时,才进行更新操作。如果小于或者等于当前标识符,将会忽略更新操作。
为了演示这个实现方法,考虑如表3-4所示的数据批次的序列,这些记录对我们例子中的数据按照key进行聚合计数。


05ed7fb526002d8518c42adac343e62d18ad72f6

这些批次数据按照下列将顺序处理完成:
1 à 2 à 3 à 3 (重放)

处理结果将按照表3-5中的状态变更操作,中间的一列数据用来存储数据标识符,记录最近一次合并进状态的数据批次编号。

b7c7943bf5db98f9c94df7fd689e76cbc65cc2dc

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
17天前
|
存储 NoSQL 分布式数据库
【Flink】Flink分布式快照的原理是什么?
【4月更文挑战第21天】【Flink】Flink分布式快照的原理是什么?
|
26天前
|
运维 监控 Java
面经:Storm实时计算框架原理与应用场景
【4月更文挑战第11天】本文是关于Apache Storm实时流处理框架的面试攻略和核心原理解析。文章分享了面试常见主题,包括Storm的架构与核心概念(如Spout、Bolt、Topology、Tuple和Ack机制),编程模型与API,部署与运维,以及应用场景与最佳实践。通过代码示例展示了如何构建一个简单的WordCountTopology,强调理解和运用Storm的关键知识点对于面试和实际工作的重要性。
34 4
面经:Storm实时计算框架原理与应用场景
|
1月前
|
存储 分布式数据库
GaussDB分布式与单机模式的比较
【4月更文挑战第7天】GaussDB分布式与单机模式的比较
1792 5
|
2月前
|
存储 监控 安全
金石推荐 | 【分布式技术专题】「单点登录技术架构」一文带领你好好认识以下Saml协议的运作机制和流程模式
金石推荐 | 【分布式技术专题】「单点登录技术架构」一文带领你好好认识以下Saml协议的运作机制和流程模式
74 1
|
2月前
|
SQL 关系型数据库 MySQL
Flink CDC产品常见问题之读分布式mysql报连接超时如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
2月前
|
SQL 分布式计算 HIVE
基于 Kyuubi 实现分布式 Flink SQL 网关
本文整理自网易互娱资深开发工程师、Apache Kyuubi Committer 林小铂的《基于 Kyuubi 实现分布式 Flink SQL 网关》分享。
104471 64
基于 Kyuubi 实现分布式 Flink SQL 网关
|
2月前
|
定位技术 流计算
在Flink CEP中,可以通过定义带有时间约束的模式来匹配事件的持续时间
【2月更文挑战第12天】在Flink CEP中,可以通过定义带有时间约束的模式来匹配事件的持续时间
36 3
|
3月前
|
Java 流计算
在Flink实时任务中,POJO(Plain Old Java Object)对象的模式演进可能会引起不兼容的问题
【2月更文挑战第6天】在Flink实时任务中,POJO(Plain Old Java Object)对象的模式演进可能会引起不兼容的问题
22 3
|
3月前
|
消息中间件 Kafka Apache
Apache Flink 是一个开源的分布式流处理框架
Apache Flink 是一个开源的分布式流处理框架
596 5