Python异步IO --- 轻松管理10k+并发连接

简介: 前言   异步操作在计算机软硬件体系中是一个普遍概念,根源在于参与协作的各实体处理速度上有明显差异。软件开发中遇到的多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,客户端比如浏览器,服务端比如node.js。
前言
 
异步操作在计算机软硬件体系中是一个普遍概念,根源在于参与协作的各实体处理速度上有明显差异。软件开发中遇到的多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,客户端比如浏览器,服务端比如node.js。本文主要分析Python异步IO。
 
Python 3.4标准库有一个新模块asyncio,用来支持异步IO,不过目前API状态是provisional,意味着不保证向后兼容性,甚至可能从标准库中移除(可能性极低)。如果关注PEP和Python-Dev会发现该模块酝酿了很长时间,可能后续有API和实现上的调整,但毋庸置疑asyncio非常实用且功能强大,值得学习和深究。
 
示例
 
asyncio主要应对TCP/UDP socket通信,从容管理大量连接,而无需创建大量线程,提高系统运行效率。此处将官方文档的一个示例做简单改造,实现一个HTTP长连接benchmark工具,用于诊断WEB服务器长连接处理能力。
 
功能概述:
每隔10毫秒创建10个连接,直到目标连接数(比如10k),同时每个连接都会规律性的向服务器发送HEAD请求,以维持HTTP keepavlie。
 
代码如下: 

点击(此处)折叠或打开

  1. import argparse
  2. import asyncio
  3. import functools
  4. import logging
  5. import random
  6. import urllib.parse
  7. loop = asyncio.get_event_loop()
  8. @asyncio.coroutine
  9. def print_http_headers(no, url, keepalive):
  10.     url = urllib.parse.urlsplit(url)
  11.     wait_for = functools.partial(asyncio.wait_for, timeout=3, loop=loop)
  12.     query = ('HEAD {url.path} HTTP/1.1\r\n'
  13.              'Host: {url.hostname}\r\n'
  14.              '\r\n').format(url=url).encode('utf-8')
  15.     rd, wr = yield from wait_for(asyncio.open_connection(url.hostname, 80))
  16.     while True:
  17.         wr.write(query)
  18.    
  19.         while True:
  20.             line = yield from wait_for(rd.readline())
  21.             if not line: # end of connection
  22.                 wr.close()
  23.                 return no
  24.             line = line.decode('utf-8').rstrip()
  25.             if not line: # end of header
  26.                 break
  27.             logging.debug('(%d) HTTP header> %s' % (no, line))
  28.         yield from asyncio.sleep(random.randint(1, keepalive//2))
  29. @asyncio.coroutine
  30. def do_requests(args):
  31.     conn_pool = set()
  32.     waiter = asyncio.Future()
  33.     def _on_complete(fut):
  34.         conn_pool.remove(fut)
  35.         exc, res = fut.exception(), fut.result()
  36.         if exc is not None:
  37.             logging.info('conn#{} exception'.format(exc))
  38.         else:
  39.             logging.info('conn#{} result'.format(res))
  40.         if not conn_pool:
  41.             waiter.set_result('event loop is done')
  42.     for i in range(args.connections):
  43.         fut = asyncio.async(print_http_headers(i, args.url, args.keepalive))
  44.         fut.add_done_callback(_on_complete)
  45.         conn_pool.add(fut)
  46.         if i % 10 == 0:
  47.             yield from asyncio.sleep(0.01)
  48.     logging.info((yield from waiter))
  49. def main():
  50.     parser = argparse.ArgumentParser(description='asyncli')
  51.     parser.add_argument('url', help='page address')
  52.     parser.add_argument('-c', '--connections', type=int, default=1,
  53.                         help='number of connections simultaneously')
  54.     parser.add_argument('-k', '--keepalive', type=int, default=60,
  55.                         help='HTTP keepalive timeout')
  56.     args = parser.parse_args()
  57.     logging.basicConfig(level=logging.INFO, format='%(asctime)s %(message)s')
  58.     loop.run_until_complete(do_requests(args))
  59.     loop.close()
  60. if __name__ == '__main__':
  61.     main()

测试与分析
 
硬件:CPU 2.3GHz / 2 cores,RAM 2GB
软件:CentOS 6.5(kernel 2.6.32), Python 3.3 (pip install asyncio), nginx 1.4.7
参数设置:ulimit -n 10240;nginx worker的连接数改为10240
 
启动WEB服务器,只需一个worker进程:
  1. # ../sbin/nginx
  2. # ps ax | grep nginx
  3. 2007 ? Ss 0:00 nginx: master process ../sbin/nginx
  4. 2008 ? S 0:00 nginx: worker process
 
启动benchmark工具, 发起10k个连接,目标URL是nginx的默认测试页面:
  1. $ python asyncli.py http://10.211.55.8/ -c 10000
 
nginx日志统计平均每秒请求数:
  1. # tail -1000000 access.log | awk '{ print $4 }' | sort | uniq -c | awk '{ cnt+=1; sum+=$1 } END { printf "avg = %d\n", sum/cnt }'
  2. avg = 548
 
top部分输出:
  1. VIRT   RES   SHR  S %CPU  %MEM   TIME+  COMMAND
  2. 657m   115m  3860 R 60.2  6.2   4:30.02  python
  3. 54208  10m   848  R 7.0   0.6   0:30.79  nginx
 
总结:
1. Python实现简洁明了。不到80行代码,只用到标准库,逻辑直观,想象下C/C++标准库实现这些功能,顿觉“人生苦短,我用Python”。
 
2. Python运行效率不理想。当连接建立后,客户端和服务端的数据收发逻辑差不多,看上面top输出,Python的CPU和RAM占用基本都是nginx的10倍,意味着效率相差100倍(CPU x RAM),侧面说明了Python与C的效率差距。这个对比虽然有些极端,毕竟nginx不仅用C且为CPU/RAM占用做了深度优化,但相似任务效率相差两个数量级,除非是BUG,说明架构设计的出发点就是不同的,Python优先可读易用而性能次之,nginx就是一个高度优化的WEB服务器,开发一个module都比较麻烦,要复用它的异步框架,简直难上加难。开发效率与运行效率的权衡,永远都存在。
 
3. 单线程异步IO v.s. 多线程同步IO。上面的例子是单线程异步IO,其实不写demo就知道多线程同步IO效率低得多,每个线程一个连接?10k个线程,仅线程栈就占用600+MB(64KB * 10000)内存,加上线程上下文切换和GIL,基本就是噩梦。
 
ayncio核心概念
 
以下是学习asyncio时需要理解的四个核心概念,更多细节请看<参考资料>
1. event loop。单线程实现异步的关键就在于这个高层事件循环,它是同步执行的。
2. future。异步IO有很多异步任务构成,而每个异步任务都由一个future控制。
3. coroutine。每个异步任务具体的执行逻辑由一个coroutine来体现。
4. generator(yield & yield from) 。在asyncio中大量使用,是不可忽视的语法细节。
 
参考资料
 
1. asyncio – Asynchronous I/O, event loop, coroutines and tasks,  https://docs.python.org/3/library/asyncio.html
2. PEP 3156, Asynchronous IO Support Rebooted: the "asyncio” Module,  http://legacy.python.org/dev/peps/pep-3156/
3. PEP 380, Syntax for Delegating to a Subgenerator,  http://legacy.python.org/dev/peps/pep-0380/
4. PEP 342, Coroutines via Enhanced Generators,  http://legacy.python.org/dev/peps/pep-0342/
5. PEP 255, Simple Generators,  http://legacy.python.org/dev/peps/pep-0255/
如何联系我:【万里虎】www.bravetiger.cn 【QQ】3396726884 (咨询问题100元起,帮助解决问题500元起) 【博客】http://www.cnblogs.com/kenshinobiy/
目录
相关文章
|
6天前
|
关系型数据库 MySQL 数据库连接
python脚本:连接数据库,检查直播流是否可用
【10月更文挑战第13天】本脚本使用 `mysql-connector-python` 连接MySQL数据库,检查 `live_streams` 表中每个直播流URL的可用性。通过 `requests` 库发送HTTP请求,输出每个URL的检查结果。需安装 `mysql-connector-python` 和 `requests` 库,并配置数据库连接参数。
100 68
|
1天前
|
网络协议 物联网 API
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第26天】Python 是一门功能强大且易于学习的编程语言,Twisted 框架以其事件驱动和异步IO处理能力,在网络编程领域独树一帜。本文深入探讨 Twisted 的异步IO机制,并通过实战示例展示其强大功能。示例包括创建简单HTTP服务器,展示如何高效处理大量并发连接。
10 1
|
2天前
|
数据库 开发者 Python
“Python异步编程革命:如何从编程新手蜕变为并发大师,掌握未来技术的制胜法宝”
【10月更文挑战第25天】介绍了Python异步编程的基础和高级技巧。文章从同步与异步编程的区别入手,逐步讲解了如何使用`asyncio`库和`async`/`await`关键字进行异步编程。通过对比传统多线程,展示了异步编程在I/O密集型任务中的优势,并提供了最佳实践建议。
8 1
|
7天前
|
关系型数据库 MySQL 数据处理
探索Python中的异步编程:从asyncio到异步数据库操作
在这个快节奏的技术世界里,效率和性能是关键。本文将带你深入Python的异步编程世界,从基础的asyncio库开始,逐步探索到异步数据库操作的高级应用。我们将一起揭开异步编程的神秘面纱,探索它如何帮助我们提升应用程序的性能和响应速度。
|
16天前
|
调度 Python
深入理解 Python 中的异步操作 | python小知识
在现代编程中,异步操作是一个非常重要的概念,尤其是在处理 I/O 密集型任务时。使用异步操作可以显著提高程序的性能和响应速度。Python 提供了 `async` 和 `await` 关键字,使得编写异步代码变得更加直观和简洁【10月更文挑战第8天】
26 2
|
18天前
|
IDE 网络安全 开发工具
IDE之pycharm:专业版本连接远程服务器代码,并配置远程python环境解释器(亲测OK)。
本文介绍了如何在PyCharm专业版中连接远程服务器并配置远程Python环境解释器,以便在服务器上运行代码。
153 0
IDE之pycharm:专业版本连接远程服务器代码,并配置远程python环境解释器(亲测OK)。
|
1天前
|
NoSQL 关系型数据库 MySQL
python协程+异步总结!
本文介绍了Python中的协程、asyncio模块以及异步编程的相关知识。首先解释了协程的概念和实现方法,包括greenlet、yield关键字、asyncio装饰器和async/await关键字。接着详细讲解了协程的意义和应用场景,如提高IO密集型任务的性能。文章还介绍了事件循环、Task对象、Future对象等核心概念,并提供了多个实战案例,包括异步Redis、MySQL操作、FastAPI框架和异步爬虫。最后提到了uvloop作为asyncio的高性能替代方案。通过这些内容,读者可以全面了解和掌握Python中的异步编程技术。
10 0
|
25天前
|
数据采集 前端开发 NoSQL
Python编程异步爬虫实战案例
Python编程异步爬虫实战案例
38 2
|
16天前
|
SQL Oracle 关系型数据库
Python连接Oracle
Python连接Oracle
15 0
|
19天前
|
网络协议 安全 Java
难懂,误点!将多线程技术应用于Python的异步事件循环
难懂,误点!将多线程技术应用于Python的异步事件循环
47 0