说说XXLJob分片任务实现原理?

简介: 说说XXLJob分片任务实现原理?

XXL Job 是一个开源的分布式任务调度平台,其核心设计目标是开发迅速、学习简单、轻量级、易扩展的分布式任务调度框架。

这两天咱们开发的 AI Cloud 项目中,也使用到了 XXL Job 来执行分布式任务的调度,可以看出它的部署和使用虽然步骤很多,但用起来还是很简单的。

因为其本身为 Spring Boot 项目,所有对于 Java 程序员来说很友好,而且它还提供中文控制台,所以这也是他能在国内分布式任务调度系统这块一直流行的原因,如下图所示:
image.png

那么接下来咱们就来聊聊,XXL Job 的路由策略,以及路由策略中分片任务的执行原理。

1.路由策略

XXL Job 的路由策略主要作用是在任务执行器集群环境中,决定如何选择合适的执行器来执行任务。

XXL Job 路由策略包含以下几个:
image.png
其中:

  1. 第一个:选取执行器管理的注册地址列表中的第一个执行器来执行任务;
  2. 最后一个:选取执行器管理的注册地址列表中的最后一个执行器来执行任务;
  3. 轮询:依次选取执行器管理的注册地址列表中的执行器,周而复始。为了应对多个定时任务同时触发带来的数据一致性问题,XXL-JOB 使用一个静态的同步 Map 来存储每个任务的 jobId 和其对应的计数。每次计数增加后,对执行器地址列表的数量取余,将结果作为索引来获取对应的执行器地址。如果超过 24 小时没有触发调用该任务,会清空 Map 以释放一定空间;
  4. 随机:从执行器管理的注册地址列表中随机选取一个执行器来执行任务;
  5. 一致性 HASH:实现一致性 HASH 负载均衡算法;
  6. 最不经常使用:选择最近最少被调度的执行器执行任务(通过次数维度选取任务);
  7. 最近最久未使用:选择距离上次被调度时间最长的执行器执行任务(通过时间维度选取任务),有助于平衡各执行器的工作负载;
  8. 故障转移:在任务路由策略选择“故障转移”的情况下,如果执行器集群中的某一台机器出现故障,将会自动 Failover 切换到一台正常的执行器发送调度请求;
  9. 忙碌转移:当任务分配到某个执行器时,如果该执行器正处于忙碌状态(可能正在执行其他任务或资源紧张),则会尝试将任务转移到其他相对空闲的执行器上执行;
  10. 分片广播:选取执行器管理的注册地址列表中的所有地址,每个地址都执行一次任务。这种方式类似于 MQ 的广播模式,可以将任务广播到集群中的所有执行器上执行。此策略适用于需要在多个执行器上同时执行相同任务的场景,例如数据同步或分布式计算等。

也就是说在这些路由策略中,最复杂的就是分片广播了。

2.分片任务实现

所谓的分片广播也就是分片(执行)任务,它是将一个大任务划分为多个子任务并行执行,以提高效率。

假设,我们现在要使用分片任务执行一个大数据的查询与处理,此时的实现代码如下:

import com.xxl.job.core.context.XxlJobHelper;
import com.xxl.job.core.log.XxlJobLogger;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class ShardingBroadcastJob {
   
   

    @XxlJob("shardingBroadcastTask") 
    public void execute(String param) {
   
   
        // 获取分片参数:分片总数和分片序列号
        int shardIndex = XxlJobHelper.getShardIndex(); 
        int shardTotal = XxlJobHelper.getShardTotal(); 

        XxlJobLogger.log("当前节点的 index={}, 总结点数={}, 参数={}", shardIndex, shardTotal, param);

        // 模拟获取数据列表
        List<String> dataList = getDataList(); 

        // 执行分片逻辑
        shardingExecute(dataList, shardIndex, shardTotal);
    }

    public List<String> getDataList() {
   
   
        // 这里可以根据实际情况从数据库或其他数据源获取数据列表
        // 为了示例简单,直接返回一个固定的列表
        return List.of("data1", "data2", "data3", "data4", "data5", "data6", "data7", "data8", "data9", "data10");
    }

    public void shardingExecute(List<String> dataList, int shardIndex, int shardTotal) {
   
   
        XxlJobLogger.log("开始执行分片任务,当前分片={}, 总分片数={}", shardIndex, shardTotal);

        // 计算当前分片应处理的数据范围
        int start = (shardIndex * dataList.size()) / shardTotal;
        int end = ((shardIndex + 1) * dataList.size()) / shardTotal;

        // 处理当前分片的数据
        for (int i = start; i < end; i++) {
   
   
            String data = dataList.get(i);
            XxlJobLogger.log("处理数据: {}", data);
            // 在此处添加具体的数据处理逻辑
        }

        XxlJobLogger.log("分片任务执行完成");
    }
}

在上述代码中,在execute方法中,通过 XxlJobHelper.getShardIndex() 获取当前分片序号,通过 XxlJobHelper.getShardTotal() 获取总分片数。然后模拟获取了一个数据列表 dataList,接下来使用 shardingExecute 方法执行分片逻辑。

在 shardingExecute 方法中,根据分片序号和总分片数计算出当前分片应处理的数据范围,然后遍历该范围内的数据并进行处理(此处仅打印数据,实际应用中可添加具体的数据处理逻辑)。

在实际使用时,需要将任务部署到 XXL Job 执行器集群中,并在调度中心配置相应的任务,选择分片广播的路由策略。这样,当调度中心触发任务时,所有执行器都会执行该任务,并根据分片参数处理相应的数据分片,这样就能提升程序整体的执行效率了。

3.执行原理

了解了 XXL Job 的代码实现就能明白其运行原理,它的实现原理如下:

  1. 任务配置与分发:在 XXL Job 的调度中心,用户通过 Web 界面创建一个分片广播类型的任务,并设置相应的参数,如分片总数(shardingTotalCount)。当调度触发时,调度中心会将此任务广播至所有注册的执行器。
  2. 分片参数传递:每个执行器在接收到广播的任务时,会自动获得分片参数,包括分片总数和当前执行器应该处理的分片序号(shardingItem)。这些参数由 XXL Job 框架自动注入,使得执行器能够知道它应当处理哪个数据分片。
  3. 分片逻辑执行:实际的分片逻辑需要在执行器的任务处理器代码中实现,开发者需根据分片序号和总数,决定处理哪些数据。这通常涉及对数据源的分片访问,如数据库查询时使用分页查询或者 ID 取模等方法来确定每个执行器处理的数据范围。然后各个执行器并行处理各自分片的数据,互不影响。
  4. 结果汇总:由于是广播任务,每个执行器处理的是全量数据的一个子集,因此不存在汇总操作,每个执行器独立完成自己的处理逻辑。如果需要最终汇总结果,需要额外的逻辑来收集和整合各个执行器的输出。

    课后思考

    在分片任务时,如果其中某台机器掉电了导致结果一直未能正常返回,XXL Job 会如何处理?XXL Job 怎么保证任务只会被执行一次的?

本文已收录到我的面试小站 www.javacn.site,其中包含的内容有:Redis、JVM、并发、并发、MySQL、Spring、Spring MVC、Spring Boot、Spring Cloud、MyBatis、设计模式、消息队列等模块。

相关文章
|
7月前
|
NoSQL Java Redis
springboot之RedisTemplate的访问单机,哨兵,集群模式
以上是配置RedisTemplate以连接到单机、哨兵和集群模式的示例。在实际应用中,还可以根据需求配置连接池、序列化方式、超时等其他参数。
423 0
|
7月前
|
SQL 存储 Java
Sharding-JDBC 如何实现分片
以上是V 哥在教学过程中实现分片的示例步骤,Sharding-JDBC能够实现SQL的分片操作,将请求路由到正确的数据库和表中,从而实现数据的水平扩展,这是在使用例如 MySQL作为数据库的场景中经常会使用到的,但如果你的企业正在考虑分布式数据库迁移,V 哥建议可以考虑 TiDB 或 OceanBase 这样的分布式数据库,因为它们天然就支持分布式,而不需要考虑这些。
|
SQL 算法 Java
分库分表(4)——ShardingJDBC原理和源码分析
分库分表(4)——ShardingJDBC原理和源码分析
515 1
分库分表(4)——ShardingJDBC原理和源码分析
|
调度
|
存储 监控 算法
Xxljob调度机制
时间轮算法,其实很简单,就是用实际的时钟刻度槽位来存储任务。 时钟刻度可以更细致,比如把一天切分成246060个秒的刻度,秒的刻度上挂任务。
810 0
Xxljob调度机制
|
存储 缓存 NoSQL
详解Redisson分布式限流的实现原理
我们目前在工作中遇到一个性能问题,我们有个定时任务需要处理大量的数据,为了提升吞吐量,所以部署了很多台机器,但这个任务在运行前需要从别的服务那拉取大量的数据,随着数据量的增大,如果同时多台机器并发拉取数据,会对下游服务产生非常大的压力。之前已经增加了单机限流,但无法解决问题,因为这个数据任务运行中只有不到10%的时间拉取数据,如果单机限流限制太狠,虽然集群总的请求量控制住了,但任务吞吐量又降下来
459 0
|
存储 JSON 算法
源码分析ElasticJob分片机制
源码分析ElasticJob分片机制
源码分析ElasticJob分片机制
|
存储 Java API
源码分析ElasticJob选主实现原理
源码分析ElasticJob选主实现原理
源码分析ElasticJob选主实现原理
|
消息中间件 存储 Java
源码分析 RocketMQ DLedger 多副本即主从切换实现原理
源码分析 RocketMQ DLedger 多副本即主从切换实现原理
源码分析 RocketMQ DLedger 多副本即主从切换实现原理
下一篇
DataWorks