持久化FileTxnLog

简介:

持久化总体框架
  持久化的类主要在包org.apache.zookeeper.server.persistence下,此次也主要是对其下的类进行分析,其包下总体的类结构如下图所示。
  
  
· TxnLog,接口类型,读取事务性日志的接口。
  · FileTxnLog,实现TxnLog接口,添加了访问该事务性日志的API。
  · Snapshot,接口类型,持久层快照接口。
  · FileSnap,实现Snapshot接口,负责存储、序列化、反序列化、访问快照。
  · FileTxnSnapLog,封装了TxnLog和SnapShot。
  · Util,工具类,提供持久化所需的API。
  下面先来分析TxnLog和FileTxnLog的源码。
三、TxnLog源码分析
  TxnLog是接口,规定了对日志的响应操作。
其中,TxnLog除了提供读写事务日志的API外,还提供了一个用于读取日志的迭代器接口TxnIterator。
四、FileTxnLog源码分析
  对于LogFile而言,其格式可分为如下三部分
  LogFile:
    FileHeader TxnList ZeroPad
  FileHeader格式如下  
  FileHeader: {
    magic 4bytes (ZKLG)
    version 4bytes
    dbid 8bytes
  }
  TxnList格式如下
  TxnList:
    Txn || Txn TxnList
  Txn格式如下
  Txn:
    checksum Txnlen TxnHeader Record 0x42
  Txnlen格式如下
  Txnlen:
    len 4bytes
  TxnHeader格式如下
  TxnHeader: {
    sessionid 8bytes
    cxid 4bytes
    zxid 8bytes
    time 8bytes
    type 4bytes
  }
  ZeroPad格式如下
  ZeroPad:
    0 padded to EOF (filled during preallocation stage)
  了解LogFile的格式对于理解源码会有很大的帮助。
4.1 属性 
4.2. 核心函数 

  1. append函数
    说明:append函数主要用做向事务日志中添加一个条目,其大体步骤如下
      ① 检查TxnHeader是否为空,若不为空,则进入②,否则,直接返回false
      ② 检查logStream是否为空(初始化为空),若不为空,则进入③,否则,进入⑤
      ③ 初始化写数据相关的流和FileHeader,并序列化FileHeader至指定文件,进入④
      ④ 强制刷新(保证数据存到磁盘),并获取当前写入数据的大小。进入⑤
      ⑤ 填充数据,填充0,进入⑥
      ⑥ 将事务头和事务序列化成ByteBuffer(使用Util.marshallTxnEntry函数),进入⑦
      ⑦ 使用Checksum算法更新步骤⑥的ByteBuffer。进入⑧
      ⑧ 将更新的ByteBuffer写入磁盘文件,返回true
    append间接调用了padLog函数,其源码如下 
    说明:padLog其主要作用是当文件大小不满64MB时,向文件填充0以达到64MB大小。
  2. getLogFiles函数 
    说明:该函数的作用是找出刚刚小于或者等于snapshot的所有log文件。其步骤大致如下。
      ① 对所有log文件按照zxid进行升序排序,进入②
      ② 遍历所有log文件并记录刚刚小于或等于给定snapshotZxid的log文件的logZxid,进入③
      ③ 再次遍历log文件,添加zxid大于等于步骤②中的logZxid的所有log文件,进入④
      ④ 转化后返回
    getLogFiles函数调用了sortDataDir,其源码如下
    说明:getLogFiles其用于排序log文件,可以选择根据zxid进行升序或降序。
    getLogFiles函数间接调用了getZxidFromName,其源码如下: 
    说明:getZxidFromName主要用作从文件名中解析zxid,并且需要从指定的前缀开始。
  3. getLastLoggedZxid函数 
    说明:该函数主要用于获取记录在log中的最后一个zxid。其步骤大致如下
      ① 获取已排好序的所有log文件,并从最后一个文件中取出zxid作为候选的最大zxid,进入②
      ② 新生成FileTxnLog并读取步骤①中zxid之后的所有事务,进入③
      ③ 遍历所有事务并提取出相应的zxid,最后返回。
    其中getLastLoggedZxid调用了read函数,其源码如下 
    说明:read函数会生成一个FileTxnIterator,其是TxnLog.TxnIterator的子类,之后在FileTxnIterator构造函数中会调用init函数,其源码如下
    说明:init函数用于进行初始化操作,会根据zxid的不同进行不同的初始化操作,在init函数中会调用goToNextLog函数,其源码如下  
    说明:goToNextLog表示选取下一个log文件,在init函数中还调用了next函数,其源码如下  
    说明:next表示将迭代器移动至下一个事务,方便读取,next函数的步骤如下。
      ① 读取事务的crcValue值,用于后续的验证,进入②
      ② 读取事务,使用CRC32进行更新并与①中的结果进行比对,若不相同,则抛出异常,否则,进入③
      ③ 将事务进行反序列化并保存至相应的属性中(如事务头和事务体),会确定具体的事务操作类型。
      ④ 在读取过程抛出异常时,会首先关闭流,然后再尝试调用next函数(即进入下一个事务进行读取)。
  4. commit函数  
    说明:该函数主要用于提交事务日志至磁盘,其大致步骤如下
      ① 若日志流logStream不为空,则强制刷新至磁盘,进入②
      ② 遍历需要刷新至磁盘的所有流streamsToFlush并进行刷新,进入③
      ③ 判断是否需要强制性同步,如是,则计算每个流的流式时间并在控制台给出警告,进入④
      ④ 移除所有流并关闭。
  5. truncate函数 
    Java
    运行代码
    复制代码
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    public boolean truncate(long zxid) throws IOException {
    FileTxnIterator itr = null;
    try {
     // 获取迭代器
     itr = new FileTxnIterator(this.logDir, zxid);
     PositionInputStream input = itr.inputStream;
     long pos = input.getPosition();
     // now, truncate at the current position
     // 从当前位置开始清空
     RandomAccessFile raf = new RandomAccessFile(itr.logFile, "rw");
     raf.setLength(pos);
     raf.close();
     while (itr.goToNextLog()) { // 存在下一个log文件
         if (!itr.logFile.delete()) { // 删除
             LOG.warn("Unable to truncate {}", itr.logFile);
         }
     }
    
    } finally {
     // 关闭迭代器
     close(itr);
    
    }
    return true;
    }
    说明:该函数用于清空大于给定zxid的所有事务日志。
    五、总结
      对于持久化中的TxnLog和FileTxnLog的源码分析就已经完成了,本章节需重点记住:
    append函数实现日志追加,记录
    通过事务的crcValue验证,决定是否更新
    通过getLogFiles获取全部日志文件并排序
    通过getLastLoggedZxid找到最大的zxid,保证后续函数决定下一个日志文件id
    通过commit提交,真正生成日志文件
    通过trancate清空指定事务日志
相关文章
|
程序员
面试高频题:开发人员说不是bug,测试如何答复?
面试高频题:开发人员说不是bug,测试如何答复?
601 0
|
9月前
|
资源调度 Kubernetes 流计算
Flink在B站的大规模云原生实践
本文基于哔哩哔哩资深开发工程师丁国涛在Flink Forward Asia 2024云原生专场的分享,围绕Flink On K8S的实践展开。内容涵盖五个部分:背景介绍、功能及稳定性优化、性能优化、运维优化和未来展望。文章详细分析了从YARN迁移到K8S的优势与挑战,包括资源池统一、环境一致性改进及隔离性提升,并针对镜像优化、Pod异常处理、启动速度优化等问题提出解决方案。此外,还探讨了多机房容灾、负载均衡及潮汐混部等未来发展方向,为Flink云原生化提供了全面的技术参考。
536 9
Flink在B站的大规模云原生实践
|
2月前
|
缓存 安全 网络安全
阿里云 ESA (边缘安全加速) 免费版2026年03月15日截止申请
阿里云ESA免费版现已向中国站用户开放,支持无限流量与国内节点加速(需备案),告别CF国内慢速。注册账号并实名即可申请,享5Mbps峰值带宽、免费HTTPS、缓存优化及基础安全防护,助力网站高效稳定运行。
1224 16
|
3月前
|
人工智能 自然语言处理 监控
AI客服机器人部署入门:意图识别模型话术配置3步快速上线
部署AI客服机器人需三步:构建高精度意图识别模型实现“听懂”,配置人性化话术确保“答好”,通过测试与数据驱动迭代保障“用稳”。该方法可系统性提升自动化解决率与用户体验,是企业客服智能化、降本增效的可靠路径。
459 3
|
3月前
|
安全 数据安全/隐私保护
RBAC权限模型
RBAC(基于角色的访问控制)通过角色管理权限,实现用户、角色、权限与资源的分离。其核心原则包括最小权限、职责分离与数据抽象,分为RBAC0至RBAC3四个层级,逐步支持角色继承与动态静态职责分离,提升系统安全与管理效率。
|
数据采集 机器学习/深度学习 算法
【优秀设计案例】基于K-Means聚类算法的球员数据聚类分析设计与实现
本文通过K-Means聚类算法对NBA球员数据进行聚类分析,旨在揭示球员间的相似性和差异性,为球队管理、战术决策和球员评估提供数据支持,并通过特征工程和结果可视化深入理解球员表现和潜力。
827 1
【优秀设计案例】基于K-Means聚类算法的球员数据聚类分析设计与实现
|
Shell Linux 调度
cgroup 资源控制介绍
cgroup 资源控制介绍
|
11月前
|
人工智能 小程序 API
【一步步开发AI运动APP】八、自定义姿态动作识别检测——之姿态相似度比较
本文介绍了如何通过姿态相似度比较技术简化AI运动应用开发。相比手动配置规则,插件`pose-calc`提供的姿态相似度比较器可快速评估两组人体关键点的整体与局部相似度,降低开发者工作量。文章还展示了在`uni-app`框架下调用姿态比较器的示例代码,并提供了桌面辅助工具以帮助提取标准动作样本,助力开发者打造性能更优、体验更好的AI运动APP。
|
C# 图形学
unity抛物线的制作
该教程展示了如何在Unity中使用LineRenderer组件和C#脚本绘制抛物线。具体步骤如下:创建一个空物体并添加LineRenderer组件,挂载提供的`SeletParabola`脚本;新建两个Cube作为起点和终点,并将其拖到脚本对应的公共变量上。运行后即可看到从起点到终点的抛物线效果。代码通过计算抛物线上的点并设置给LineRenderer来实现这一效果。此外,还可以为LineRenderer添加贴图以增强视觉效果。
|
C语言
BOOST1.75+QT5.15.2编译记录
本文记录了BOOST 1.75与Qt 5.15.2编译过程的详细步骤,包括编译结果截图、将boost源码编译为静态库的步骤,以及如何在Qt项目中使用BOOST库的测试代码。文章还提供了相关参考链接,以帮助解决在编译和使用过程中可能遇到的问题。
598 0
BOOST1.75+QT5.15.2编译记录

热门文章

最新文章