Python中asyncio模块的实际使用

简介: celery和asyncio写代码都差不多,但asycio用起来更简单,更适用于网络并发请求。如果用于做耗时任务处理也可以,针对如果耗时任务只有一个,明显用celery把耗时任务转到后台处理更为合适。

一般涉及异步编程我都无脑用celery,但是最近在做一个项目,项目不大,也不涉及定时任务,所以就用了asyncio。


asyncio是python自带的模块,比celery轻量,使用起来也简单。以前学习过,但是公司项目中碰到并发任务基本都用celery处理,所以没有使用,这次就简单总结一下。

1. 基本概念

asyncio简介

asyncio是Python的标准库,它提供了一种异步编程的框架,可以用于编写并发程序。asyncio使用事件循环来管理异步任务,通过协程(coroutine)来实现异步操作。

协程

协程又叫微线程,是一种特殊的函数,它可以挂起和恢复执行,而不阻塞事件循环。协程使用async和await关键字来定义和调用。

通俗的理解:在一个线程中的某个函数,可以在任何地方保存当前函数的一些临时变量等信息,然后切换到另外一个函数中执行另一个函数。 简而言之,其实就是通过一个线程实现代码块相互切换执行。

事件循环

事件循环是一个持续运行的循环,用于调度和执行任务。它不断地检查是否有任务需要执行,并在任务完成时继续处理其他任务。

2.实际项目场景--开发盘点系统

仓库有多台堆垛机,输入盘点任务,盘点系统需要根据盘点货位号通知堆垛机到达指定位置,堆垛机到达指定货位后通知盘点系统同时进行RFID扫描和视觉比对。

1720699074328.jpg

下面将分2个部分介绍asyncio的使用,第一部分是使用asyncio实现并发网络请求,如图中①所示,第二部分是使用asyncio实现异步处理长时间的耗时任务,如图中②所示

3.asyncio实现并发网络请求

asyncio实现并发网络请求,需要使用asyncio的异步网络请求库aiohttp。aiohttp是一个基于asyncio的异步HTTP客户端/服务器库,可以用于发送HTTP请求和创建HTTP服务器。


示例如下,发送请求通知堆垛机到达指定货位,请求地址相同,但是请求参数(货位号)不同,使用asyncio实现并发请求,节省盘点时间。

import asyncio
import datetime
import aiohttp

async def async_post(url, data,headers):
    async with aiohttp.ClientSession() as session:
        async with session.post(url, json=data,headers=headers) as response:
            return await response.json()

async def execute_queue(payloads):
    url = 'http://127.0.0.1:8011/api/smart_check/execute_queue/'
    headers = {"content-type": "application/json"}
    tasks = []
    for payload in payloads:
        task = asyncio.create_task(async_post(url, payload,headers))
        tasks.append(task)
    responses = await asyncio.gather(*tasks)

    for response in responses:
    #打印响应结果和时间
        print(response,datetime.datetime.now())

# Run the asyncio event loop
if __name__ == "__main__":
    payloads = [
        {'space_number': '1号'}, # 货位号
        {'space_number': '8号'}, # 货位号
        {'space_number': '10号'} # 货位号
    ]
    #loop = asyncio.get_event_loop() 
    #loop.run_until_complete(result) 
    asyncio.run(execute_queue(payloads))# python3.7后支持,等同于上面两行代码

"""==========返回的结果==========="""
{'code': 200, 'data': None, 'message': '堆垛机已到达货位1号'} 2024-07-09 15:47:06.778444
{'code': 200, 'data': None, 'message': '堆垛机已到达货位8号'} 2024-07-09 15:47:06.778444
{'code': 200, 'data': None, 'message': '堆垛机已到达货位10号'} 2024-07-09 15:47:06.778444
"""=============================="""

4.asyncio实现异步处理长时间的耗时任务

4.1 使用asyncios实现

很多时候耗时任务根本没有aiohttp这样的模块帮我们实现,所以可以用 run_in_executor 将耗时任务放入一个线程池执行器中运行,以避免阻塞事件循环所在的线程。简单理解就是调用新的线程去执行异步任务。demo如下:

import time
import asyncio

def task():
    #某个耗时操作任务
    time.sleep(2)
    return "ok"

async def main():
    loop = asyncio.get_event_loop()
    # 如果第一个参数不填,默认会使用一个 `ThreadPoolExecutor`,它会在一个线程池中执行函数,并返回返回一个Future对象,而Future就是一个可等待对象
    res = loop.run_in_executor(None,task)
    result = await res
    print("default thread pool",result)

asyncio.run(main())

实际开发中:

import time
import asyncio

def rfid():
    time.sleep(2)
    return "读取RFID信息"

def capture():
    time.sleep(6)
    return "摄像头抓图"

async def main():
    loop = asyncio.get_event_loop()
    tasks = [loop.run_in_executor(None,rfid),loop.run_in_executor(None,capture)]
    res = await asyncio.gather(*tasks)
    print(res)
    # 判断有没有待盘点的货位,如果有就继续通知堆垛机,此处省略---
    # payloads = [
    #   {'space_number': '1号'}, # 货位号
    #]
    #asyncio.run(execute_queue(payloads))

if __name__ == "__main__":
    asyncio.run(main())

最后打印的结果是['读取RFID信息', '摄像头抓图']。asyncio会保证两个异步任务都结束后才会继续执行execute_queue函数,就是通知堆垛机处理剩余待盘点的货位。

4.2 使用celery实现

如果用celery则是需要用group做处理,才能保证这两个异步任务都结束,而且是并发执行,因为会同时分配给两个worker去执行。例子如下:

from celery import group

# 定义多个任务
@celery.task
def rfid():
    time.sleep(2)
    return "读取RFID信息"

@celery.task
def capture():
    time.sleep(6)
    return "摄像头抓图"
    
# 将任务组合成一个 group
job_group = group(rfid.s(), capture.s())

# 执行 group 中的任务
result = job_group.apply_async()

# 等待所有任务完成并获取结果
final_result = result.get()

print(final_result)  # 输出所有任务的结果

5. 总结

celery和asyncio写代码都差不多,但asycio用起来更简单,更适用于网络并发请求。如果用于做耗时任务处理也可以,针对如果耗时任务只有一个,明显用celery把耗时任务转到后台处理更为合适。

相关文章
|
3月前
|
SQL 关系型数据库 数据库
Python SQLAlchemy模块:从入门到实战的数据库操作指南
免费提供Python+PyCharm编程环境,结合SQLAlchemy ORM框架详解数据库开发。涵盖连接配置、模型定义、CRUD操作、事务控制及Alembic迁移工具,以电商订单系统为例,深入讲解高并发场景下的性能优化与最佳实践,助你高效构建数据驱动应用。
495 7
|
3月前
|
监控 安全 程序员
Python日志模块配置:从print到logging的优雅升级指南
从 `print` 到 `logging` 是 Python 开发的必经之路。`print` 调试简单却难维护,日志混乱、无法分级、缺乏上下文;而 `logging` 支持级别控制、多输出、结构化记录,助力项目可维护性升级。本文详解痛点、优势、迁移方案与最佳实践,助你构建专业日志系统,让程序“有记忆”。
342 0
|
4月前
|
数据采集 数据库 开发者
利用Python asyncio实现高效异步编程
利用Python asyncio实现高效异步编程
291 100
|
3月前
|
JSON 算法 API
Python中的json模块:从基础到进阶的实用指南
本文深入解析Python内置json模块的使用,涵盖序列化与反序列化核心函数、参数配置、中文处理、自定义对象转换及异常处理,并介绍性能优化与第三方库扩展,助你高效实现JSON数据交互。(238字)
461 4
|
3月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
396 0
|
3月前
|
XML JSON 数据处理
超越JSON:Python结构化数据处理模块全解析
本文深入解析Python中12个核心数据处理模块,涵盖csv、pandas、pickle、shelve、struct、configparser、xml、numpy、array、sqlite3和msgpack,覆盖表格处理、序列化、配置管理、科学计算等六大场景,结合真实案例与决策树,助你高效应对各类数据挑战。(238字)
263 0
|
4月前
|
安全 大数据 程序员
Python operator模块的methodcaller:一行代码搞定对象方法调用的黑科技
`operator.methodcaller`是Python中处理对象方法调用的高效工具,替代冗长Lambda,提升代码可读性与性能。适用于数据过滤、排序、转换等场景,支持参数传递与链式调用,是函数式编程的隐藏利器。
179 4
|
4月前
|
调度 数据库 Python
Python异步编程入门:asyncio让并发变得更简单
Python异步编程入门:asyncio让并发变得更简单
285 5
|
4月前
|
存储 数据库 开发者
Python SQLite模块:轻量级数据库的实战指南
本文深入讲解Python内置sqlite3模块的实战应用,涵盖数据库连接、CRUD操作、事务管理、性能优化及高级特性,结合完整案例,助你快速掌握SQLite在小型项目中的高效使用,是Python开发者必备的轻量级数据库指南。
435 0

推荐镜像

更多