分布式事务:从理论到实践(二)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 Tair(兼容Redis),内存型 2GB
简介: AT 模式的一阶段、二阶段提交和回滚均由 Seata 框架自动生成,用户只需编写“业务 SQL”,便能轻松接入分布式事务,AT 模式是一种对业务无任何侵入的分布式事务解决方案。

前文 分布式事务:从理论到实践(一)我们提到了Seata的AT和TCC模式,本文中我们针对这两个模式进行深入分析和开发实践。


AT 模式


原理回顾


根据 官方文档[1] 及提供的 博客[2] 我们先回顾一下AT模式下分布式事务的原理

AT 模式的一阶段、二阶段提交和回滚均由 Seata 框架自动生成,用户只需编写“业务 SQL”,便能轻松接入分布式事务,AT 模式是一种对业务无任何侵入的分布式事务解决方案。


30.jpg


一阶段:在一阶段,Seata 会拦截“业务 SQL”,首先解析 SQL 语义,找到“业务 SQL”要更新的业务数据,在业务数据被更新前,将其保存成“before image”,然后执行“业务 SQL”更新业务数据,在业务数据更新之后,再将其保存成“after image”,最后生成行锁。以上操作全部在一个数据库事务内完成,这样保证了一阶段操作的原子性。


31.jpg


  • 二阶段提交:二阶段如果是提交的话,因为“业务 SQL”在一阶段已经提交至数据库, 所以 Seata 框架只需将一阶段保存的快照数据和行锁删掉,完成数据清理即可。


32.jpg


  • 二阶段回滚:二阶段如果是回滚的话,Seata 就需要回滚一阶段已经执行的“业务 SQL”,还原业务数据。回滚方式便是用“before image”还原业务数据;但在还原前要首先要校验脏写,对比“数据库当前业务数据”和 “after image”,如果两份数据完全一致就说明没有脏写,可以还原业务数据,如果不一致就说明有脏写,出现脏写就需要转人工处理。


33.jpg


环境搭建


本文demo使用的环境是基于

  • SpringBoot
  • Spring Cloud  Alibaba
  • Nacos
  • Apollo
  • docker compose


首先将 seata-server 在服务器搭建起来,由于我们使用 nacos作为seata的注册中心、apollo为注册中心,所以先将这两个组件搭建起来,具体的安装方法请分别参考各自的官方文档。nacos[3]apollo[4]

nacos 和 apollo 搭起来以后,我们开始搭建 seata-server 以下是 docker-compose 的配置:


version: "3.1"
services:
  seata-server:
    image: seataio/seata-server:latest
    hostname: seata-server
    ports:
      - 8091:8091
    environment:
      - SEATA_PORT=8091
      - SEATA_IP={你的IP}
      - SEATA_CONFIG_NAME=file:/seata-server/resources/registry
    volumes:
      - ./seata/registry.conf:/seata-server/resources/registry.conf
    expose:
      - 8091


修改 registry.conf 配置文件,由于我们使用 nacos 作为注册中心,apollo 作为配置中心,所以需要修改到以下配置:


registry {
  # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa
  type = "nacos"
  loadBalance = "RandomLoadBalance"
  loadBalanceVirtualNodes = 10
  nacos {
    application = "seata-server"
    serverAddr = "你的IP:端口"
    group = "SEATA_GROUP"
    namespace = ""
    cluster = "default"
    username = ""
    password = ""
  }
}
config {
  # file、nacos 、apollo、zk、consul、etcd3
  type = "apollo"
  apollo {
    appId = "seata-server"
    apolloMeta = "http://你的IP:端口"
    namespace = "application"
    env= "dev"
    apolloAccesskeySecret = ""
  }
}


注意:seata-server 是可以配置数据库存储 seata 所用数据的,我们为了方便利用本地 file 的方式存储数据,所以没有再做数据库的配置。如需修改可以修改配置文件 file.conf

下面是 file.conf 的默认配置:


store {
  ## store mode: file、db、redis
  mode = "file"
  ## file store property
  file {
    ## store location dir
    dir = "sessionStore"
    # branch session size , if exceeded first try compress lockkey, still exceeded throws exceptions
    maxBranchSessionSize = 16384
    # globe session size , if exceeded throws exceptions
    maxGlobalSessionSize = 512
    # file buffer size , if exceeded allocate new buffer
    fileWriteBufferCacheSize = 16384
    # when recover batch read size
    sessionReloadReadSize = 100
    # async, sync
    flushDiskMode = async
  }
  ## database store property
  db {
    ## the implement of javax.sql.DataSource, such as DruidDataSource(druid)/BasicDataSource(dbcp)/HikariDataSource(hikari) etc.
    datasource = "druid"
    ## mysql/oracle/postgresql/h2/oceanbase etc.
    dbType = "mysql"
    driverClassName = "com.mysql.jdbc.Driver"
    url = "jdbc:mysql://127.0.0.1:3306/seata"
    user = "mysql"
    password = "mysql"
    minConn = 5
    maxConn = 100
    globalTable = "global_table"
    branchTable = "branch_table"
    lockTable = "lock_table"
    queryLimit = 100
    maxWait = 5000
  }
  ## redis store property
  redis {
    host = "127.0.0.1"
    port = "6379"
    password = ""
    database = "0"
    minConn = 1
    maxConn = 10
    maxTotal = 100
    queryLimit = 100
  }
}


启动 nacos、apollo、seata-server


当显示以下信息时,代表seata-server启动了。


35.jpg


这时我们查看 nacos ,也注册上了


34.jpg


apollo 中我们添加一个名为 service.vgroup-mapping.demo-service-seata的key ,value为 default,至于这个的作用,我们后面再说。


36.jpg


我们的 demo 中包含三个服务

  • demo-order
  • demo-storage
  • demo-user


服务间调用使用的是Spring Cloud OpenFeign,除了 SpringBoot 和Spring Cloud 等基础 bom 要依赖外,还需要加入 seata 的依赖,我的pom,大致如下:


<properties>
        <spring-boot-dependencies.version>2.3.2.RELEASE</spring-boot-dependencies.version>
        <spring-cloud-dependencies.version>Hoxton.SR8</spring-cloud-dependencies.version>
        <spring-cloud-alibaba-dependencies.version>2.2.3.RELEASE</spring-cloud-alibaba-dependencies.version>
</properties>
    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-parent</artifactId>
                <version>${spring-boot-dependencies.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
            <dependency>
                <groupId>org.springframework.cloud</groupId>
                <artifactId>spring-cloud-dependencies</artifactId>
                <version>${spring-cloud-dependencies.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
            <dependency>
                <groupId>com.alibaba.cloud</groupId>
                <artifactId>spring-cloud-alibaba-dependencies</artifactId>
                <version>${spring-cloud-alibaba-dependencies.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>
    <dependencies>
        <!-- 实现对 Spring MVC 的自动化配置 -->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <!-- 引入 Spring Cloud Alibaba Seata 相关依赖,使用 Seata 实现分布式事务,并实现对其的自动配置 -->
        <dependency>
            <groupId>io.seata</groupId>
            <artifactId>seata-spring-boot-starter</artifactId>
        </dependency>
        <dependency>
            <groupId>com.alibaba.cloud</groupId>
            <artifactId>spring-cloud-starter-alibaba-seata</artifactId>
        </dependency>
        <!-- 引入 Spring Cloud Alibaba Nacos Discovery 相关依赖,将 Nacos 作为注册中心,并实现对其的自动配置 -->
        <dependency>
            <groupId>com.alibaba.cloud</groupId>
            <artifactId>spring-cloud-starter-alibaba-nacos-discovery</artifactId>
        </dependency>
        <!-- 引入 Spring Cloud OpenFeign 相关依赖,使用 OpenFeign 提供声明式调用,并实现对其的自动配置 -->
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-openfeign</artifactId>
        </dependency>
    </dependencies>


至于项目中所用ORM框架,数据库连接池等就因人而异了,我用的是mybatis-plus和hikari,数据库用的是 mysql5.7。


针对上面的三个服务分别创建三个数据库,order、user、storage,并在每个库中分别创建一个业务表 t_order、t_user、t_storage 这里就不贴建库表的脚本了,大家可以按照自己的设计自己建,需要注意的是每个库都需要再创建一个 undo_log 表,这是为seata做分布式事务回滚所用。


CREATE TABLE `undo_log` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `branch_id` bigint(20) NOT NULL,
  `xid` varchar(100) NOT NULL,
  `context` varchar(128) NOT NULL,
  `rollback_info` longblob NOT NULL,
  `log_status` int(11) NOT NULL,
  `log_created` datetime NOT NULL,
  `log_modified` datetime NOT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;


每个服务中 application.yml 中对应 seata 的配置如下


spring:
  profiles:
    active: dev
  cloud:
    nacos:
      discovery:
        namespace: public
        password: nacos
        server-addr: IP:PORT
        networkInterface: eth1
        username: nacos
# Seata 配置项,对应 SeataProperties 类
seata:
  application-id: ${spring.application.name} # Seata 应用编号,默认为 ${spring.application.name}
  tx-service-group: demo-service-seata # Seata 事务组编号,用于 TC 集群名
  # Seata 服务配置项,对应 ServiceProperties 类
  service:
    # 虚拟组和分组的映射
    vgroup-mapping:
      demo-service-seata: default
  # Seata 注册中心配置项,对应 RegistryProperties 类
  registry:
    type: nacos # 注册中心类型,默认为 file
    nacos:
      cluster: default # 使用的 Seata 分组
      namespace: # Nacos 命名空间
      serverAddr: 你的IP:端口 # Nacos 服务地址


这里有几点需要注意:

  • demo-service-seata 出现了两次,这两个地方要写成一样
  • demo-service-seata: default
  • 与我们在 apollo 中配置的要一样
  • 与 seata-server registry.conf 中 nacos 的 cluster 配置一样。
  • nacos 配置 networkInterface: eth1
  • 这样写是因为服务部署在服务器后用的内网IP注册到了nacos,想配置它用外网地址就改了下走特定网卡。
  • 解决方案参考:这里[5]例如,使用了Spring cloud alibaba(官方文档)作为Nacos客户端,服务默认获取了内网IP 192.168.1.21,可以通过配置 spring.cloud.inetutils.preferred-networks=10.34.12,使服务获取内网中前缀为10.34.12的IP
  • 在老版本的 seata 是需要手动设置 DataSourceProxy的 ,参考 官网文档[6] 新版本的默认是自动代理的,不需要再写了。


38.jpg


至此我们的环境搭建和准备工作就结束了。


分布式事务具体代码


我们设计这样一个同步的业务流程,创建订单前先扣减库存,再扣减账户余额,然后再创建订单,demo设计上参考了 芋道源码[7]。大致流程如下图:


39.jpg


40.jpg


通过入口进入orderServicer后,进行上面的三步流程,分别调用两个微服务,再调自己的订单服务,这里注意两点:

  • 分布式全局事务入口,要添加 @GlobalTransactional
  • 要抛出异常


接下来是扣减库存微服务部分,简单做了下扣减,小于10抛出异常


41.jpg


然后是账户微服务部分


42.jpg


最后是订单


45.jpg


代码都比较简单,有几个点需要注意下


  • 全局事务的隔离性和本地事务的不是一个概念。
  • 全局事务的隔离级别一定基础上依赖本地事务的隔离级别。因此本地事务的隔离级别只要大于等于seata支持的隔离级别就行,所以一般数据库的默认级别就可以
  • seata的全局事务注解是@GlobalTransactional,@Transactional 是spring的注解,解决本地事务问题,属于两种不同粒度的事务范畴。
  • 如果要加全局事务就一定要用 @GlobalTransactional。
  • 在一个事务方法上,是可以叠加两个注解的,仅意味着功能的叠加,即:有本地事务的处理,也有全局事务的加持。两者不冲突。


由于在数据库本地事务隔离级别 读已提交(Read Committed) 或以上的基础上,Seata(AT 模式)的默认全局隔离级别是 读未提交(Read Uncommitted)


所以这种隔离性会带来问题(注意这里说的是全局事务):


  • 脏读:一个事务读取到另一个事务未提交的数据 解决方案:
  • @GlobalLock+@Transactional 注解 + select语句加for update 或
  • GlobalTransactional注解+select语句加for update
  • 脏写:一个事务提交的数据覆盖了另一个事务未提交的数据 解决方案:必须使用@GlobalTransaction


其实上面这部分,官方文档也写的很清楚,尤其对于隔离性的解析:


47.jpg


上图有些地方理解起来要注意:

  • 这里说的事务指的是全局的分布式事务,别想成本地事务了,
  • 关于@GlobalLock,场景是一个是全局分布式事务,另一个不是分布式事务,如果你想让分布式事务不产生“脏读”,那么可以在另一个非分布式事务上加@GlobalLock。


我的测试中事务的正常执行和回滚都没有问题,如果你观察各数据库的 undo_log 表,可能会发现没有数据,但实际情况是数据是插入后又很快清除了,所以你没看到,如果你观察主键的 auto_increment 可以看到一直在增长。由于我用了阿里云的RDS,可以通过SQL洞察看到SQL的执行历史,这里看到sql确实执行过。


48.jpg


XID是全局事务ID,有时候我们需要获得并进行一些操作,那么可以这样做


String xid = RootContext.getXID();
RootContext.unbind();//解绑
//中途做一些与事务无关的事。比如日志服务等等 排除掉,然后
RootContext.bind(xid);//再绑回来


@GlobalTransactional也有自己的隔离级别和rollback等,可根据业务情况自行设置


package io.seata.spring.annotation;
import io.seata.tm.api.transaction.Propagation;
import java.lang.annotation.ElementType;
import java.lang.annotation.Inherited;
import java.lang.annotation.Retention;
import java.lang.annotation.RetentionPolicy;
import java.lang.annotation.Target;
@Retention(RetentionPolicy.RUNTIME)
@Target({ElementType.METHOD, ElementType.TYPE})
@Inherited
public @interface GlobalTransactional {
    int timeoutMills() default 60000;
    String name() default "";
    Class<? extends Throwable>[] rollbackFor() default {};
    String[] rollbackForClassName() default {};
    Class<? extends Throwable>[] noRollbackFor() default {};
    String[] noRollbackForClassName() default {};
    Propagation propagation() default Propagation.REQUIRED;
}


AT 总结


  • 再次强调AT模式是自动的,它自动帮你做回滚和提交,使用时考虑跟自己的实际业务场景是否适合
  • 例子中我对执行事务的方法并没有做幂等,在实际生产情况下,一定会出现问题的,所以大家在用的时候要注意做接口幂等处理
  • 有关更多seata的参数配置,如超时,重试次数等。请参考 官网[8]这里当然要结合你的feign的重试和超时时间整体考虑。
  • 通过上文的描述我们利用一个例子将AT模式的全局分布式事务模拟了出来,也总结了一些比较难理解和需要注意的点,希望能够帮助到正在使用seata的小伙伴。
相关文章
|
4月前
|
人工智能 安全 应用服务中间件
阿里巴巴 MCP 分布式落地实践:快速转换 HSF 到 MCP server
本文分享了阿里巴巴内部将大规模HSF服务快速转换为MCP Server的实践经验,通过Higress网关实现MCP协议卸载,无需修改代码即可接入MCP生态。文章分析了MCP生态面临的挑战,如协议快速迭代和SDK不稳定性,并详细介绍了操作步骤及组件功能。强调MCP虽非终极解决方案,但作为AI业务工程化的起点具有重要意义。最后总结指出,MCP只是AI原生应用发展的第一步,未来还有更多可能性值得探索。
1023 48
|
4月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
1251 57
|
4月前
|
安全 JavaScript 前端开发
HarmonyOS NEXT~HarmonyOS 语言仓颉:下一代分布式开发语言的技术解析与应用实践
HarmonyOS语言仓颉是华为专为HarmonyOS生态系统设计的新型编程语言,旨在解决分布式环境下的开发挑战。它以“编码创造”为理念,具备分布式原生、高性能与高效率、安全可靠三大核心特性。仓颉语言通过内置分布式能力简化跨设备开发,提供统一的编程模型和开发体验。文章从语言基础、关键特性、开发实践及未来展望四个方面剖析其技术优势,助力开发者掌握这一新兴工具,构建全场景分布式应用。
455 35
|
5月前
|
存储 负载均衡 测试技术
ACK Gateway with Inference Extension:优化多机分布式大模型推理服务实践
本文介绍了如何利用阿里云容器服务ACK推出的ACK Gateway with Inference Extension组件,在Kubernetes环境中为多机分布式部署的LLM推理服务提供智能路由和负载均衡能力。文章以部署和优化QwQ-32B模型为例,详细展示了从环境准备到性能测试的完整实践过程。
|
6月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
456 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
6月前
|
人工智能 运维 监控
领先AI企业经验谈:探究AI分布式推理网络架构实践
当前,AI行业正处于快速发展的关键时期。继DeepSeek大放异彩之后,又一款备受瞩目的AI智能体产品Manus横空出世。Manus具备独立思考、规划和执行复杂任务的能力,其多智能体架构能够自主调用工具。在GAIA基准测试中,Manus的性能超越了OpenAI同层次的大模型,展现出卓越的技术实力。
|
8月前
|
数据采集 人工智能 分布式计算
MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
阿里云推出的MaxFrame是链接大数据与AI的分布式Python计算框架,提供类似Pandas的操作接口和分布式处理能力。本文从部署、功能验证到实际场景全面评测MaxFrame,涵盖分布式Pandas操作、大语言模型数据预处理及企业级应用。结果显示,MaxFrame在处理大规模数据时性能显著提升,代码兼容性强,适合从数据清洗到训练数据生成的全链路场景...
366 5
MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
|
8月前
|
存储 运维 安全
盘古分布式存储系统的稳定性实践
本文介绍了阿里云飞天盘古分布式存储系统的稳定性实践。盘古作为阿里云的核心组件,支撑了阿里巴巴集团的众多业务,确保数据高可靠性、系统高可用性和安全生产运维是其关键目标。文章详细探讨了数据不丢不错、系统高可用性的实现方法,以及通过故障演练、自动化发布和健康检查等手段保障生产安全。总结指出,稳定性是一项系统工程,需要持续迭代演进,盘古经过十年以上的线上锤炼,积累了丰富的实践经验。
603 7
|
9月前
|
运维 Kubernetes 调度
阿里云容器服务 ACK One 分布式云容器企业落地实践
阿里云容器服务ACK提供强大的产品能力,支持弹性、调度、可观测、成本治理和安全合规。针对拥有IDC或三方资源的企业,ACK One分布式云容器平台能够有效解决资源管理、多云多集群管理及边缘计算等挑战,实现云上云下统一管理,提升业务效率与稳定性。
|
10月前
|
NoSQL Java 数据处理
基于Redis海量数据场景分布式ID架构实践
【11月更文挑战第30天】在现代分布式系统中,生成全局唯一的ID是一个常见且重要的需求。在微服务架构中,各个服务可能需要生成唯一标识符,如用户ID、订单ID等。传统的自增ID已经无法满足在集群环境下保持唯一性的要求,而分布式ID解决方案能够确保即使在多个实例间也能生成全局唯一的标识符。本文将深入探讨如何利用Redis实现分布式ID生成,并通过Java语言展示多个示例,同时分析每个实践方案的优缺点。
336 8

热门文章

最新文章