日夕如是寒暑不间,基于Python3+Tornado6+APScheduler/Celery打造并发异步动态定时任务轮询服务

本文涉及的产品
云数据库 Redis 版,社区版 2GB
推荐场景:
搭建游戏排行榜
简介: 定时任务的典型落地场景在各行业中都很普遍,比如支付系统中,支付过程中因为网络或者其他因素导致出现掉单、卡单的情况,账单变成了“单边账”,这种情况对于支付用户来说,毫无疑问是灾难级别的体验,明明自己付了钱,扣了款,但是订单状态却未发生变化。所以,每一笔订单的支付任务流程中都需要一个定时轮询的备选方案,一旦支付中发生问题,定时轮询服务就可以及时发现和更正订单状态。

定时任务的典型落地场景在各行业中都很普遍,比如支付系统中,支付过程中因为网络或者其他因素导致出现掉单、卡单的情况,账单变成了“单边账”,这种情况对于支付用户来说,毫无疑问是灾难级别的体验,明明自己付了钱,扣了款,但是订单状态却未发生变化。所以,每一笔订单的支付任务流程中都需要一个定时轮询的备选方案,一旦支付中发生问题,定时轮询服务就可以及时发现和更正订单状态。

又比如,之前的一篇以寡治众各个击破,超大文件分片上传之构建基于Vue.js3.0+Ant-desgin+Tornado6纯异步IO高效写入服务,在超大型文件分片传输任务过程中,一旦分片上传或者分片合并环节出了问题,就有可能导致超大型文件无法完整的传输到服务器中,从而浪费大量的系统带宽资源,所以每一个分片传输任务执行过程中也需要一个对应的定时轮询来“盯”着,防止过程中出现问题。

在实际业务场景中,定时服务基本都作为主应用的附属服务而存在,不同定时任务的调度时间可能不一样,所以如果能够配合主服务并发异步调用定时任务,则可以单应用能够支持上万,甚至十万以上的定时任务,并且不同任务能够有独立的调度时间,这里通过Tornado配合APScheduler和Celery,分别展示不同的异步定时任务调用逻辑。

APScheduler

APScheduler(advanceded python scheduler)是一款及其优秀的Python3定时任务框架,它不仅支持并发异步调用定时任务,还可以动态地对定时任务进行管理,同时也支持定时任务的持久化。

首先安装APScheduler以及Tornado6:

pip3 install apscheduler
pip3 install tornado==6.1

随后导入基于Tornado的异步APScheduler:

from datetime import datetime    
from tornado.ioloop import IOLoop, PeriodicCallback    
from tornado.web import RequestHandler, Application    
from apscheduler.schedulers.tornado import TornadoScheduler

这里TornadoScheduler实例就具备了Tornado的事件循环特性,随后声明异步定时任务:

async def task():    
    print('[APScheduler][Task]-{}'.format(datetime.now().strftime('%Y-%m-%d %H:%M:%S.%f')))

随后初始化定时任务对象:

scheduler = None  
  
# 初始化  
def init_scheduler():  
  
    global scheduler  
  
    scheduler = TornadoScheduler()  
  
    scheduler.start()  
  
    scheduler.add_job(task,"interval",seconds=3,id="job1",args=())  
  
    print("定时任务启动")

这里启动后就添加一个定时任务,每隔三秒执行一次。

接着main入口启动服务:

if __name__ == '__main__':  
  
    init_scheduler()

系统返回:

C:\Users\liuyue\www\tornado6>python test_scheduler.py  
定时任务启动  
[APScheduler][Task]-2022-07-28 22:13:47.792582  
[APScheduler][Task]-2022-07-28 22:13:50.783016  
[APScheduler][Task]-2022-07-28 22:13:53.783362  
[APScheduler][Task]-2022-07-28 22:13:56.775059  
[APScheduler][Task]-2022-07-28 22:13:59.779563

随后创建Tornado控制器视图:

class SchedulerHandler(RequestHandler):  
    def get(self):  
        job_id = self.get_query_argument('job_id', None)  
        action = self.get_query_argument('action', None)  
        if job_id:  
            # 添加任务  
            if 'add' == action:  
                if job_id not in job_ids:  
                    job_ids.append(job_id)  
                    scheduler.add_job(task, 'interval', seconds=3, id=job_id, args=(job_id,))  
                    self.write('[TASK ADDED] - {}'.format(job_id))  
                else:  
                    self.write('[TASK EXISTS] - {}'.format(job_id))  
            # 删除任务  
            elif 'remove' == action:  
                if job_id in job_ids:  
                    scheduler.remove_job(job_id)  
                    self.write('[TASK REMOVED] - {}'.format(job_id))  
                else:  
                    self.write('[TASK NOT FOUND] - {}'.format(job_id))  
        else:  
            self.write('[INVALID PARAMS] INVALID job_id or action')

这里通过传参来动态的删减异步定时任务,对于完成轮询任务的定时任务,完全可以物理删除,从而节约系统资源,随后添加路由并且启动Tornado服务:

if __name__ == '__main__':  
      
    routes = [url(r"/scheduler/",SchedulerHandler)]  
  
    init_scheduler()  
  
    # 声明tornado对象  
    application = Application(routes,debug=True)  
    application.listen(8888)  
    IOLoop.current().start()

APScheduler定时任务持久化

所谓任务持久化,即任务存储在诸如文件或者数据库这样的持久化容器中,如果APScheduler定时任务服务进程中断,未执行的任务还会保留,当服务再次启动时,定时任务可以从数据库中读取出来再次被装载调用,这里以redis数据库为例子:

from apscheduler.jobstores.redis import RedisJobStore  
  
# 初始化  
def init_scheduler():  
  
    global scheduler  
  
    jobstores = {  
        'default': RedisJobStore(jobs_key='cron.jobs',run_times_key='cron.run_times',  
                     host='localhost', port=6379,)  
    }  
  
    scheduler = TornadoScheduler(jobstores=jobstores)  
  
    scheduler.start()  
  
    scheduler.add_job(task,"interval",seconds=3,id="job1",args=())  
  
    print("定时任务启动")

这里通过jobstores参数将redis装载到定时任务服务中,当创建任务时,数据库中会以hash的形式来存储任务明细:

127.0.0.1:6379> keys *  
1) "cron.run_times"  
2) "cron.jobs"  
127.0.0.1:6379> type cron.jobs  
hash  
127.0.0.1:6379> hgetall cron.jobs  
1) "job1"  
2) "\x80\x05\x95\x14\x02\x00\x00\x00\x00\x00\x00}\x94(\x8c\aversion\x94K\x01\x8c\x02id\x94\x8c\x04job1\x94\x8c\x04func\x94\x8c\x0e__main__:task1\x94\x8c\atrigger\x94\x8c\x1dapscheduler.triggers.interval\x94\x8c\x0fIntervalTrigger\x94\x93\x94)\x81\x94}\x94(h\x01K\x02\x8c\btimezone\x94\x8c\x1bpytz_deprecation_shim._impl\x94\x8c\twrap_zone\x94\x93\x94\x8c\bbuiltins\x94\x8c\agetattr\x94\x93\x94\x8c\bzoneinfo\x94\x8c\bZoneInfo\x94\x93\x94\x8c\t_unpickle\x94\x86\x94R\x94\x8c\x0cAsia/Irkutsk\x94K\x01\x86\x94R\x94h\x19\x86\x94R\x94\x8c\nstart_date\x94\x8c\bdatetime\x94\x8c\bdatetime\x94\x93\x94C\n\a\xe6\a\x1c\x16\x1e&\x0b\xc7\x8b\x94h\x1d\x86\x94R\x94\x8c\bend_date\x94N\x8c\binterval\x94h\x1f\x8c\ttimedelta\x94\x93\x94K\x00K\x03K\x00\x87\x94R\x94\x8c\x06jitter\x94Nub\x8c\bexecutor\x94\x8c\adefault\x94\x8c\x04args\x94)\x8c\x06kwargs\x94}\x94\x8c\x04name\x94\x8c\x05task1\x94\x8c\x12misfire_grace_time\x94K\x01\x8c\bcoalesce\x94\x88\x8c\rmax_instances\x94K\x01\x8c\rnext_run_time\x94h!C\n\a\xe6\a\x1c\x16\x1e,\x0b\xc7\x8b\x94h\x1d\x86\x94R\x94u."

而如果删除任务,redis数据库中的任务也会同步删除。

至此,APScheduler配合Tornado就完成了一个简单的并发异步定时任务服务。

Celery

celery是一款在Python定时任务领域“开风气之先”的框架,和APScheduler相比,celery略显臃肿了一点,同时,celery并不具备任何任务持久化的功能,也需要三方的容器进行支持。

首先安装5.0以上版本:

pip3 install celery==5.2.7

随后,初始化任务对象:

from celery import Celery  
from datetime import timedelta  
from redisbeat.scheduler import RedisScheduler  
  
app = Celery("tornado")  
  
  
app.conf["imports"] = ["celery_task"]  
  
# 定义broker  
app.conf.broker_url = "redis://localhost:6379"  
  
# 任务结果  
app.conf.result_backend = "redis://localhost:6379"  
  
# 时区  
app.conf.timezone = "Asia/Shanghai"

这里任务代理(broker)和任务结果(result\_backend)也都存储在redis中。

紧接着声明异步任务方法:

from celery import shared_task  
import asyncio  
  
async def consume():  
  
    return 'test'  
  
@shared_task  
def async_job():  
  
    return asyncio.run(consume())

这里通过asyncio库间接调用异步方法。

然后添加定时任务的配置:

from datetime import timedelta   
  
# 需要执行任务的配置  
app.conf.beat_schedule = {  
    "task1": {  
        "task": "celery_task.async_consume",  #执行的方法  
        "schedule": timedelta(seconds=3),   
        "args":()  
    },  
}

随后启动worker服务:

celery -A module_name worker --pool=solo -l info

接着启动beat服务:

celery -A module_name beat -l info

异步定时任务会被装载执行,系统返回:

C:\Users\liuyue\www\tornado6>celery -A test_celery worker --pool=solo -l info  
  
 -------------- celery@LIUYUE354D v5.2.7 (dawn-chorus)  
--- ***** -----  
-- ******* ---- Windows-10-10.0.22000-SP0 2022-07-28 22:55:00  
- *** --- * ---  
- ** ---------- [config]  
- ** ---------- .> app:         tornado:0x23769b40430  
- ** ---------- .> transport:   redis://localhost:6379//  
- ** ---------- .> results:     redis://localhost:6379/  
- *** --- * --- .> concurrency: 4 (solo)  
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)  
--- ***** -----  
 -------------- [queues]  
                .> celery           exchange=celery(direct) key=celery  
  
  
[tasks]  
  . celery_task.async_job  
  . celery_task.job  
  . test_celery.sub  
  
[2022-07-28 22:55:02,234: INFO/MainProcess] Connected to redis://localhost:6379//  
[2022-07-28 22:55:04,267: INFO/MainProcess] mingle: searching for neighbors  
[2022-07-28 22:55:11,552: INFO/MainProcess] mingle: all alone  
[2022-07-28 22:55:21,837: INFO/MainProcess] celery@LIUYUE354D ready.  
[2022-07-28 22:58:26,032: INFO/MainProcess] Task celery_task.job[b0337808-c90b-450b-98bc-fd577f7039d0] received  
[2022-07-28 22:58:28,086: INFO/MainProcess] Task celery_task.job[b0337808-c90b-450b-98bc-fd577f7039d0] succeeded in 2.062999999994645s: 'test'  
[2022-07-28 22:58:28,099: INFO/MainProcess] Task celery_task.job[f4aa4304-02c3-48ee-8625-fa1fe27b8e98] received  
[2022-07-28 22:58:28,099: INFO/MainProcess] Task celery_task.job[f4aa4304-02c3-48ee-8625-fa1fe27b8e98] succeeded in 0.0s: 'test'  
[2022-07-28 22:58:28,975: INFO/MainProcess] Task celery_task.job[bb33981d-0629-4173-8375-128ba84d1f0f] received  
[2022-07-28 22:58:28,975: INFO/MainProcess] Task celery_task.job[bb33981d-0629-4173-8375-128ba84d1f0f] succeeded in 0.0s: 'test'

同时,在redis数据库中会以列表和字符串的形式存储任务明细和结果:

127.0.0.1:6379> keys *  
1) "celery-task-meta-f4aa4304-02c3-48ee-8625-fa1fe27b8e98"  
2) "celery-task-meta-bb33981d-0629-4173-8375-128ba84d1f0f"  
3) "_kombu.binding.celery"  
4) "celery-task-meta-b0337808-c90b-450b-98bc-fd577f7039d0"  
5) "cron.run_times"  
6) "cron.jobs"  
7) "celery"

从调度层面上讲,celery和APScheduler并无太大的不同,但从使用成本上看,celery比APScheduler多维护一个服务,worker和beat双服务的形式无形中也增加了系统监控资源的开销。

动态维护异步定时任务

从任务管理层面上看,celery毫无疑问输的很彻底,因为原生celery压根就不支持动态地修改定时任务。但我们可以通过三方库的形式来曲线救国:

pip3 install redisbeat

这里通过redis的定时任务服务来取代celery原生的beat服务。

建立redisbeat实例:

from celery import Celery  
from datetime import timedelta  
from redisbeat.scheduler import RedisScheduler  
  
app = Celery("tornado")  
  
  
app.conf["imports"] = ["celery_task"]  
  
# 定义broker  
app.conf.broker_url = "redis://localhost:6379"  
  
# 任务结果  
app.conf.result_backend = "redis://localhost:6379"  
  
# 时区  
app.conf.timezone = "Asia/Shanghai"  
  
@app.task  
def sub():  
  
    return "test"  
  
  
schduler = RedisScheduler(app=app)  
schduler.add(**{  
        'name': 'job1',  
        'task': 'test_celery.sub',  
        'schedule': timedelta(seconds=3),  
        'args': ()  
})

通过schduler.add方法就可以动态地添加定时任务,随后以redisbeat的形式启动celery服务:

celery -A test_celery beat -S redisbeat.RedisScheduler -l INFO

此时经过改造的系统接受动态任务调用而执行:

C:\Users\liuyue\www\tornado6>celery -A test_celery worker --pool=solo -l info  
  
 -------------- celery@LIUYUE354D v5.2.7 (dawn-chorus)  
--- ***** -----  
-- ******* ---- Windows-10-10.0.22000-SP0 2022-07-28 23:09:50  
- *** --- * ---  
- ** ---------- [config]  
- ** ---------- .> app:         tornado:0x19c1a1f0040  
- ** ---------- .> transport:   redis://localhost:6379//  
- ** ---------- .> results:     redis://localhost:6379/  
- *** --- * --- .> concurrency: 4 (solo)  
-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)  
--- ***** -----  
 -------------- [queues]  
                .> celery           exchange=celery(direct) key=celery  
  
  
[tasks]  
  . celery_task.async_job  
  . celery_task.job  
  . test_celery.sub  
  
[2022-07-28 23:09:52,916: INFO/MainProcess] Connected to redis://localhost:6379//  
[2022-07-28 23:09:54,971: INFO/MainProcess] mingle: searching for neighbors  
[2022-07-28 23:10:02,140: INFO/MainProcess] mingle: all alone  
[2022-07-28 23:10:12,427: INFO/MainProcess] celery@LIUYUE354D ready.  
[2022-07-28 23:10:12,440: INFO/MainProcess] Task test_celery.sub[ade9c5ad-d551-44f2-84e7-a2824b2d022d] received  
[2022-07-28 23:10:14,518: INFO/MainProcess] Task test_celery.sub[ade9c5ad-d551-44f2-84e7-a2824b2d022d] succeeded in 2.0780000000013388s: 'test'  
[2022-07-28 23:10:14,518: INFO/MainProcess] Task test_celery.sub[11927889-8385-4c88-aff1-42179b559db0] received  
[2022-07-28 23:10:14,518: INFO/MainProcess] Task test_celery.sub[11927889-8385-4c88-aff1-42179b559db0] succeeded in 0.0s: 'test'  
[2022-07-28 23:10:14,533: INFO/MainProcess] Task test_celery.sub[442cd168-5a68-4ade-b4e7-6ae4a92a53ae] received  
[2022-07-28 23:10:14,533: INFO/MainProcess] Task test_celery.sub[442cd168-5a68-4ade-b4e7-6ae4a92a53ae] succeeded in 0.0s: 'test'  
[2022-07-28 23:10:17,087: INFO/MainProcess] Task test_celery.sub[e4850b5d-28e9-47c8-88e6-d9086e93db88] received  
[2022-07-28 23:10:17,087: INFO/MainProcess] Task test_celery.sub[e4850b5d-28e9-47c8-88e6-d9086e93db88] succeeded in 0.0s: 'test'

相应地,也可以通过remove方法和任务id进行删除操作:

schduler.remove('job1')

任务明细的存储形式上,也由列表升级成为了有序集合,提高了效率:

127.0.0.1:6379> type celery:beat:order_tasks  
zset  
127.0.0.1:6379> zrange celery:beat:order_tasks 0 -1  
1) "{\"py/reduce\": [{\"py/type\": \"celery.beat.ScheduleEntry\"}, {\"py/tuple\": [\"job1\", \"test_celery.sub\", {\"__reduce__\": [{\"py/type\": \"datetime.datetime\"}, [\"B+YHHBcMDgfyGg==\", {\"py/reduce\": [{\"py/function\": \"pytz._p\"}, {\"py/tuple\": [\"Asia/Shanghai\", 28800, 0, \"CST\"]}]}]], \"py/object\": \"datetime.datetime\"}, 43, {\"py/reduce\": [{\"py/type\": \"celery.schedules.schedule\"}, {\"py/tuple\": [{\"py/reduce\": [{\"py/type\": \"datetime.timedelta\"}, {\"py/tuple\": [0, 3, 0]}]}, false, null]}]}, {\"py/tuple\": []}, {}, {}]}]}"

至此,celery配合tornado打造异步定时任务就完成了。

结语

APScheduler长于灵活机动并可以依附于Tornado事件循环体系中,Celery则娴于调度和分布式的支持并相对独立,二者不分轩轾,各擅胜场,适合不同的业务应用场景,当然,在异步定时任务执行异常时的处理策略也有很多方面需要完善,比如由于实例夯死导致的过时触发问题、任务追赶和任务堆积问题、工作流场景下任务异常后是整体重试还是断点续传重试等,都需要具体问题具体分析。

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
2天前
|
调度 数据库 Python
【专栏】异步IO在处理IO密集型任务中的高效性
【4月更文挑战第27天】本文介绍了Python并发编程和异步IO,包括并发的基本概念(多线程、多进程、协程),线程与进程的实现(threading和multiprocessing模块),协程的使用(asyncio模块),以及异步IO的原理和优势。强调了异步IO在处理IO密集型任务中的高效性,指出应根据任务类型选择合适的并发技术。
|
2天前
|
JSON 监控 调度
局域网管理软件的自动化任务调度:Python 中的 APScheduler 库的应用
使用 Python 的 APScheduler 库可简化局域网管理中的自动化任务调度。APScheduler 是一个轻量级定时任务调度库,支持多种触发方式如间隔、时间、日期和 Cron 表达式。示例代码展示了如何创建每 10 秒执行一次的定时任务。在局域网管理场景中,可以利用 APScheduler 定期监控设备状态,当设备离线时自动提交数据到网站,提升管理效率。
27 0
|
2天前
|
API UED Python
使用Python进行异步HTTP请求的实践指南
使用Python进行异步HTTP请求的实践指南
20 4
|
2天前
|
并行计算 数据处理 开发者
Python并发编程:解析异步IO与多线程
本文探讨了Python中的并发编程技术,着重比较了异步IO和多线程两种常见的并发模型。通过详细分析它们的特点、优劣势以及适用场景,帮助读者更好地理解并选择适合自己项目需求的并发编程方式。
|
2天前
|
人工智能 算法 调度
uvloop,一个强大的 Python 异步IO编程库!
uvloop,一个强大的 Python 异步IO编程库!
37 2
|
2天前
|
API 调度 开发者
Python中的并发编程:使用asyncio库实现异步IO
传统的Python编程模式中,使用多线程或多进程实现并发操作可能存在性能瓶颈和复杂性问题。而随着Python 3.5引入的asyncio库,开发者可以利用异步IO来更高效地处理并发任务。本文将介绍如何利用asyncio库实现异步IO,提升Python程序的并发性能。
|
2天前
|
监控 Python
Python监控主机是否存活,并发报警邮件
Python监控主机是否存活,并发报警邮件
|
2天前
|
人工智能 算法 API
【Python+微信】【企业微信开发入坑指北】0. 创建自建应用并接入自己的服务
【Python+微信】【企业微信开发入坑指北】0. 创建自建应用并接入自己的服务
21 0
【Python+微信】【企业微信开发入坑指北】0. 创建自建应用并接入自己的服务
|
2天前
|
数据采集 缓存 算法
使用Python打造爬虫程序之Python中的并发与异步IO:解锁高效数据处理之道
【4月更文挑战第19天】本文探讨了Python中的并发与异步IO,区分了并发(同时处理任务)与并行(同时执行任务)的概念。Python的多线程受限于GIL,适合IO密集型任务,而多进程适用于CPU密集型任务。异步IO通过非阻塞和回调/协程实现高效IO,Python的asyncio库提供了支持。应用场景包括Web开发和网络爬虫等。实践指南包括理解任务类型、使用asyncio、避免阻塞操作、合理设置并发度和优化性能。理解并运用这些技术能提升Python程序的效率和性能。
|
2天前
|
JSON API 数据库
解释如何在 Python 中实现 Web 服务(RESTful API)。
在Python中实现Web服务(RESTful API)涉及选择框架(如Flask、Django、FastAPI),定义路由及处理函数(对应HTTP请求方法),处理请求,构建响应和启动服务器。以下是一个使用Flask的简单示例:定义用户列表,通过`@app.route`装饰器设置GET和POST请求处理函数,返回JSON响应,并用`app.run()`启动服务器。实际API会包含更复杂的逻辑和错误处理。
16 1