流畅的 Python 第二版(GPT 重译)(十一)(1)

简介: 流畅的 Python 第二版(GPT 重译)(十一)

第二十章:并发执行器

抨击线程的人通常是系统程序员,他们心中有着典型应用程序员终其一生都不会遇到的用例。[…] 在 99%的用例中,应用程序员可能会遇到的情况是,生成一堆独立线程并将结果收集到队列中的简单模式就是他们需要了解的一切。

米歇尔·西莫纳托,Python 深思者¹

本章重点介绍了封装“生成一堆独立线程并将结果收集到队列中”模式的concurrent.futures.Executor类,这是米歇尔·西莫纳托描述的。并发执行器使得这种模式几乎可以轻松使用,不仅适用于线程,还适用于进程——对于计算密集型任务非常有用。

在这里,我还介绍了futures的概念——代表操作异步执行的对象,类似于 JavaScript 的 promises。这个基本概念不仅是concurrent.futures的基础,也是asyncio包的基础,是第二十一章的主题。

本章亮点

我将本章从“使用 Futures 进行并发”改名为“并发执行器”,因为执行器是这里涵盖的最重要的高级特性。Futures 是低级对象,在“Futures 在哪里?”中重点介绍,但在本章的其他部分基本上是不可见的。

所有 HTTP 客户端示例现在都使用新的HTTPX库,提供同步和异步 API。

在“带有进度显示和错误处理的下载”实验的设置现在更简单了,这要归功于 Python 3.7 中添加到http.server包中的多线程服务器。以前,标准库只有单线程的BaseHttpServer,不适合用于并发客户端的实验,因此我不得不在本书第一版中使用外部工具。

“使用 concurrent.futures 启动进程”现在演示了执行器如何简化我们在“多核素数检查器的代码”中看到的代码。

最后,我将大部分理论内容移至新的第十九章,“Python 中的并发模型”。

并发网络下载

并发对于高效的网络 I/O 至关重要:应用程序不应该闲置等待远程机器,而应该在收到响应之前做其他事情。²

为了用代码演示,我编写了三个简单的程序来从网络上下载 20 个国家的国旗图片。第一个flags.py按顺序运行:只有在上一个图片下载并保存在本地后才请求下一个图片。另外两个脚本进行并发下载:它们几乎同时请求多个图片,并在图片到达时保存。flags_threadpool.py脚本使用concurrent.futures包,而flags_asyncio.py使用asyncio

示例 20-1 展示了运行三个脚本三次的结果。我还在 YouTube 上发布了一个73 秒的视频,这样你就可以看到它们运行时 macOS Finder 窗口显示保存的标志。这些脚本正在从fluentpython.com下载图片,该网站位于 CDN 后面,因此在第一次运行时可能会看到较慢的结果。示例 20-1 中的结果是在多次运行后获得的,因此 CDN 缓存已经热了。

示例 20-1 三个脚本 flags.py、flags_threadpool.py 和 flags_asyncio.py 的典型运行结果
$ python3 flags.py
BD BR CD CN DE EG ET FR ID IN IR JP MX NG PH PK RU TR US VN # ① 20 flags downloaded in 7.26s # ② $ python3 flags.py
BD BR CD CN DE EG ET FR ID IN IR JP MX NG PH PK RU TR US VN
20 flags downloaded in 7.20s
$ python3 flags.py
BD BR CD CN DE EG ET FR ID IN IR JP MX NG PH PK RU TR US VN
20 flags downloaded in 7.09s
$ python3 flags_threadpool.py
DE BD CN JP ID EG NG BR RU CD IR MX US PH FR PK VN IN ET TR
20 flags downloaded in 1.37s # ③ $ python3 flags_threadpool.py
EG BR FR IN BD JP DE RU PK PH CD MX ID US NG TR CN VN ET IR
20 flags downloaded in 1.60s
$ python3 flags_threadpool.py
BD DE EG CN ID RU IN VN ET MX FR CD NG US JP TR PK BR IR PH
20 flags downloaded in 1.22s
$ python3 flags_asyncio.py # ④ BD BR IN ID TR DE CN US IR PK PH FR RU NG VN ET MX EG JP CD
20 flags downloaded in 1.36s
$ python3 flags_asyncio.py
RU CN BR IN FR BD TR EG VN IR PH CD ET ID NG DE JP PK MX US
20 flags downloaded in 1.27s
$ python3 flags_asyncio.py
RU IN ID DE BR VN PK MX US IR ET EG NG BD FR CN JP PH CD TR # ⑤ 20 flags downloaded in 1.42s

每次运行的输出以下载的国旗国家代码开头,并以显示经过的时间的消息结束。

flags.py下载 20 张图像平均用时 7.18 秒。

flags_threadpool.py的平均时间为 1.40 秒。

对于flags_asyncio.py,平均时间为 1.35 秒。

注意国家代码的顺序:使用并发脚本下载时,每次下载的顺序都不同。

并发脚本之间的性能差异不大,但它们都比顺序脚本快五倍以上——这仅针对下载几千字节的 20 个文件的小任务。如果将任务扩展到数百个下载,那么并发脚本可以比顺序代码快 20 倍或更多。

警告

在针对公共网络服务器测试并发 HTTP 客户端时,您可能会无意中发动拒绝服务(DoS)攻击,或被怀疑这样做。在示例 20-1 的情况下,这样做是可以的,因为这些脚本是硬编码为仅发出 20 个请求。我们将在本章后面使用 Python 的http.server包来运行测试。

现在让我们研究示例 20-1 中测试的两个脚本的实现:flags.pyflags_threadpool.py。第三个脚本flags_asyncio.py将在第二十一章中介绍,但我想一起展示这三个脚本以阐明两点:

  1. 无论您使用哪种并发构造——线程还是协程——如果正确编码,您将看到网络 I/O 操作的吞吐量大大提高。
  2. 对于可以控制发出多少请求的 HTTP 客户端,线程和协程之间的性能差异不大。³

进入代码部分。

一个顺序下载脚本

示例 20-2 包含flags.py的实现,这是我们在示例 20-1 中运行的第一个脚本。它并不是很有趣,但我们将重用大部分代码和设置来实现并发脚本,因此它值得一提。

注意

为了清晰起见,在示例 20-2 中没有错误处理。我们稍后会处理异常,但这里我想专注于代码的基本结构,以便更容易将此脚本与并发脚本进行对比。

示例 20-2. flags.py:顺序下载脚本;一些函数将被其他脚本重用
import time
from pathlib import Path
from typing import Callable
import httpx  # ①
POP20_CC = ('CN IN US ID BR PK NG BD RU JP '
            'MX PH VN ET EG DE IR TR CD FR').split()  # ②
BASE_URL = 'https://www.fluentpython.com/data/flags'  # ③
DEST_DIR = Path('downloaded')                         # ④
def save_flag(img: bytes, filename: str) -> None:     # ⑤
    (DEST_DIR / filename).write_bytes(img)
def get_flag(cc: str) -> bytes:  # ⑥
    url = f'{BASE_URL}/{cc}/{cc}.gif'.lower()
    resp = httpx.get(url, timeout=6.1,       # ⑦
                     follow_redirects=True)  # ⑧
    resp.raise_for_status()  # ⑨
    return resp.content
def download_many(cc_list: list[str]) -> int:  # ⑩
    for cc in sorted(cc_list):                 ⑪
        image = get_flag(cc)
        save_flag(image, f'{cc}.gif')
        print(cc, end=' ', flush=True)         ⑫
    return len(cc_list)
def main(downloader: Callable[[list[str]], int]) -> None:  ⑬
    DEST_DIR.mkdir(exist_ok=True)                          ⑭
    t0 = time.perf_counter()                               ⑮
    count = downloader(POP20_CC)
    elapsed = time.perf_counter() - t0
    print(f'\n{count} downloads in {elapsed:.2f}s')
if __name__ == '__main__':
    main(download_many)     ⑯

导入httpx库。它不是标准库的一部分,因此按照惯例,导入应放在标准库模块之后并空一行。

ISO 3166 国家代码列表,按人口递减顺序列出前 20 个人口最多的国家。

存放国旗图像的目录。⁴

图像保存的本地目录。

img字节保存到DEST_DIR中的filename

给定一个国家代码,构建 URL 并下载图像,返回响应的二进制内容。

为网络操作添加合理的超时是个好习惯,以避免无故阻塞几分钟。

默认情况下,HTTPX不会遵循重定向。⁵

这个脚本中没有错误处理,但是如果 HTTP 状态不在 2XX 范围内,此方法会引发异常——强烈建议避免静默失败。

download_many是用于比较并发实现的关键函数。

按字母顺序循环遍历国家代码列表,以便轻松查看输出中保留了顺序;返回下载的国家代码数量。

逐个显示一个国家代码,以便我们可以看到每次下载发生时的进度。end=' '参数用空格字符替换了通常在每行末尾打印的换行符,因此所有国家代码都逐步显示在同一行中。需要flush=True参数,因为默认情况下,Python 输出是行缓冲的,这意味着 Python 仅在换行后显示打印的字符。

必须使用将进行下载的函数调用main;这样,我们可以在threadpoolascyncio示例中的其他download_many实现中将main用作库函数。

如果需要,创建DEST_DIR;如果目录已存在,则不会引发错误。

运行downloader函数后记录并报告经过的时间。

使用download_many函数调用main

提示

HTTPX库受到 Pythonic requests包的启发,但建立在更现代的基础上。关键是,HTTPX提供同步和异步 API,因此我们可以在本章和下一章的所有 HTTP 客户端示例中使用它。Python 的标准库提供了urllib.request模块,但其 API 仅支持同步,并且不够用户友好。

flags.py 实际上没有什么新内容。它作为比较其他脚本的基准,并且我在实现它们时将其用作库,以避免冗余代码。现在让我们看看使用concurrent.futures重新实现的情况。

使用 concurrent.futures 进行下载

concurrent.futures包的主要特点是ThreadPoolExecutorProcessPoolExecutor类,它们实现了一个 API,用于在不同线程或进程中提交可调用对象进行执行。这些类透明地管理一组工作线程或进程以及队列来分发作业和收集结果。但接口非常高级,对于像我们的标志下载这样的简单用例,我们不需要了解任何这些细节。

示例 20-3 展示了实现并发下载的最简单方法,使用ThreadPoolExecutor.map方法。

示例 20-3. flags_threadpool.py:使用futures.ThreadPoolExecutor的线程下载脚本
from concurrent import futures
from flags import save_flag, get_flag, main  # ①
def download_one(cc: str):  # ②
    image = get_flag(cc)
    save_flag(image, f'{cc}.gif')
    print(cc, end=' ', flush=True)
    return cc
def download_many(cc_list: list[str]) -> int:
    with futures.ThreadPoolExecutor() as executor:         # ③
        res = executor.map(download_one, sorted(cc_list))  # ④
    return len(list(res))                                  # ⑤
if __name__ == '__main__':
    main(download_many)  # ⑥

flags模块中重用一些函数(示例 20-2)。

用于下载单个图像的函数;这是每个工作线程将执行的内容。

ThreadPoolExecutor实例化为上下文管理器;executor.__exit__方法将调用executor.shutdown(wait=True),这将阻塞直到所有线程完成。

map方法类似于内置的map,不同之处在于download_one函数将并发地从多个线程调用;它返回一个生成器,您可以迭代以检索每个函数调用返回的值—在本例中,每次调用download_one都将返回一个国家代码。

返回获得的结果数量。如果任何线程调用引发异常,当 list 构造函数内部的隐式 next() 调用尝试从 executor.map 返回的迭代器中检索相应的返回值时,异常会在此处引发。

flags 模块调用 main 函数,传递并发版本的 download_many

请注意,来自 示例 20-3 的 download_one 函数本质上是来自 示例 20-2 中的 download_many 函数中 for 循环的主体。这是在编写并发代码时常见的重构:将顺序 for 循环的主体转换为一个要并发调用的函数。

提示

示例 20-3 非常简短,因为我能够重用顺序执行的 flags.py 脚本中的大部分函数。concurrent.futures 最好的特性之一是使得在传统的顺序代码之上添加并发执行变得简单。

ThreadPoolExecutor 构造函数接受几个未显示的参数,但第一个且最重要的是 max_workers,设置要执行的工作线程的最大数量。当 max_workersNone(默认值)时,ThreadPoolExecutor 使用以下表达式决定其值—自 Python 3.8 起:

max_workers = min(32, os.cpu_count() + 4)

这个理念在 ThreadPoolExecutor 文档 中有解释:

这个默认值至少保留了 5 个工作线程用于 I/O 绑定任务。对于释放 GIL 的 CPU 绑定任务,它最多利用 32 个 CPU 核心。它避免在多核机器上隐式使用非常大的资源。

ThreadPoolExecutor 现在在启动 max_workers 工作线程之前重用空闲的工作线程。

总之:max_workers 的默认计算是合理的,ThreadPoolExecutor 避免不必要地启动新的工作线程。理解 max_workers 背后的逻辑可能会帮助您决定何时以及如何自行设置它。

这个库被称为 concurrency.futures,但在 示例 20-3 中看不到 futures,所以你可能会想知道它们在哪里。接下来的部分会解释。

未来在哪里?

Futures 是 concurrent.futuresasyncio 的核心组件,但作为这些库的用户,我们有时看不到它们。示例 20-3 在幕后依赖于 futures,但我编写的代码并没有直接涉及它们。本节是 futures 的概述,其中包含一个展示它们运作的示例。

自 Python 3.4 起,标准库中有两个名为 Future 的类:concurrent.futures.Futureasyncio.Future。它们的作用相同:Future 类的实例代表一个延迟计算,可能已经完成,也可能尚未完成。这在某种程度上类似于 Twisted 中的 Deferred 类、Tornado 中的 Future 类以及现代 JavaScript 中的 Promise

Futures 封装了待处理的操作,以便我们可以将它们放入队列,检查它们是否完成,并在结果(或异常)可用时检索结果。

关于 futures 的一个重要事项是,你和我不应该创建它们:它们应该由并发框架专门实例化,无论是 concurrent.futures 还是 asyncio。原因在于:Future 代表着最终会运行的东西,因此必须安排其运行,这是框架的工作。特别是,concurrent.futures.Future 实例仅在使用 concurrent.futures.Executor 子类提交可调用对象以执行时才会创建。例如,Executor.submit() 方法接受一个可调用对象,安排其运行,并返回一个 Future

应用代码不应该改变 future 的状态:当它所代表的计算完成时,并发框架会改变 future 的状态,我们无法控制何时发生这种情况。

两种类型的Future都有一个非阻塞的.done()方法,返回一个布尔值,告诉你被该future包装的可调用是否已执行。然而,客户端代码通常不会反复询问future是否完成,而是要求通知。这就是为什么两种Future类都有一个.add_done_callback()方法:你给它一个可调用对象,当future完成时,该可调用对象将以future作为唯一参数被调用。请注意,回调可调用对象将在运行包装在future中的函数的工作线程或进程中运行。

还有一个.result()方法,在future完成时两种类中的工作方式相同:它返回可调用对象的结果,或者在执行可调用对象时抛出的任何异常。然而,当future未完成时,result方法在两种Future的行为上有很大不同。在concurrency.futures.Future实例中,调用f.result()将阻塞调用者的线程,直到结果准备就绪。可以传递一个可选的timeout参数,如果在指定时间内future未完成,result方法将引发TimeoutErrorasyncio.Future.result方法不支持超时,await是在asyncio中获取future结果的首选方式,但await不能与concurrency.futures.Future实例一起使用。

两个库中的几个函数返回future;其他函数在其实现中使用future的方式对用户来说是透明的。后者的一个例子是我们在示例 20-3 中看到的Executor.map:它返回一个迭代器,其中__next__调用每个futureresult方法,因此我们得到future的结果,而不是future本身。

为了实际查看future,我们可以重写示例 20-3 以使用concurrent.futures.as_completed函数,该函数接受一个future的可迭代对象,并返回一个迭代器,按照完成的顺序产生future

使用futures.as_completed仅需要更改download_many函数。高级executor.map调用被两个for循环替换:一个用于创建和调度future,另一个用于检索它们的结果。在此过程中,我们将添加一些print调用来显示每个future在完成前后的状态。示例 20-4 展示了新download_many函数的代码。download_many函数的代码从 5 行增长到 17 行,但现在我们可以检查神秘的future。其余函数与示例 20-3 中的相同。

示例 20-4. flags_threadpool_futures.py: 在download_many函数中用executor.submitfutures.as_completed替换executor.map
def download_many(cc_list: list[str]) -> int:
    cc_list = cc_list[:5]  # ①
    with futures.ThreadPoolExecutor(max_workers=3) as executor:  # ②
        to_do: list[futures.Future] = []
        for cc in sorted(cc_list):  # ③
            future = executor.submit(download_one, cc)  # ④
            to_do.append(future)  # ⑤
            print(f'Scheduled for {cc}: {future}')  # ⑥
        for count, future in enumerate(futures.as_completed(to_do), 1):  # ⑦
            res: str = future.result()  # ⑧
            print(f'{future} result: {res!r}')  # ⑨
    return count

为了演示,只使用人口最多的前五个国家。

max_workers设置为3,这样我们可以在输出中看到待处理的future

按字母顺序遍历国家代码,以明确结果将无序到达。

executor.submit调度可调用对象的执行,并返回代表此挂起操作的future

存储每个future,以便稍后使用as_completed检索它们。

显示带有国家代码和相应future的消息。

as_completedfuture完成时产生future

获取这个future的结果。

显示future及其结果。

注意,在这个例子中,future.result() 调用永远不会阻塞,因为 future 是从 as_completed 中出来的。示例 20-5 展示了示例 20-4 的一次运行的输出。

示例 20-5. flags_threadpool_futures.py 的输出
$ python3 flags_threadpool_futures.py
Scheduled for BR: <Future at 0x100791518 state=running> # ① Scheduled for CN: <Future at 0x100791710 state=running>
Scheduled for ID: <Future at 0x100791a90 state=running>
Scheduled for IN: <Future at 0x101807080 state=pending> # ② Scheduled for US: <Future at 0x101807128 state=pending>
CN <Future at 0x100791710 state=finished returned str> result: 'CN' # ③ BR ID <Future at 0x100791518 state=finished returned str> result: 'BR' # ④ <Future at 0x100791a90 state=finished returned str> result: 'ID'
IN <Future at 0x101807080 state=finished returned str> result: 'IN'
US <Future at 0x101807128 state=finished returned str> result: 'US'
5 downloads in 0.70s

未来按字母顺序安排;未来的 repr() 显示其状态:前三个是 running,因为有三个工作线程。

最后两个未来是 pending,等待工作线程。

这里的第一个 CN 是在工作线程中的 download_one 的输出;其余行是 download_many 的输出。

在主线程的 download_many 显示结果之前,两个线程在输出代码。

提示

我建议尝试 flags_threadpool_futures.py。如果你多次运行它,你会看到结果的顺序变化。将 max_workers 增加到 5 将增加结果顺序的变化。将其减少到 1 将使此脚本按顺序运行,结果的顺序将始终是 submit 调用的顺序。

我们看到了两个使用 concurrent.futures 的下载脚本变体:一个在示例 20-3 中使用 ThreadPoolExecutor.map,另一个在示例 20-4 中使用 futures.as_completed。如果你对 flags_asyncio.py 的代码感兴趣,可以查看第二十一章中的示例 21-3 进行了解。

现在让我们简要看一下使用 concurrent.futures 绕过 GIL 处理 CPU 密集型任务的简单方法。

使用 concurrent.futures 启动进程

concurrent.futures 文档页面 的副标题是“启动并行任务”。该软件包支持在多核计算机上进行并行计算,因为它支持使用 ProcessPoolExecutor 类在多个 Python 进程之间分发工作。

ProcessPoolExecutorThreadPoolExecutor 都实现了Executor 接口,因此使用 concurrent.futures 从基于线程的解决方案切换到基于进程的解决方案很容易。

对于下载标志示例或任何 I/O 密集型任务,使用 ProcessPoolExecutor 没有优势。很容易验证这一点;只需更改示例 20-3 中的这些行:

def download_many(cc_list: list[str]) -> int:
    with futures.ThreadPoolExecutor() as executor:

到这里:

def download_many(cc_list: list[str]) -> int:
    with futures.ProcessPoolExecutor() as executor:

ProcessPoolExecutor 的构造函数也有一个 max_workers 参数,默认为 None。在这种情况下,执行器将工作进程的数量限制为 os.cpu_count() 返回的数量。

进程使用更多内存,启动时间比线程长,所以 ProcessPoolExecutor 的真正价值在于 CPU 密集型任务。让我们回到“自制进程池”中的素数检查示例,使用 concurrent.futures 重新编写它。

多核素数检查器 Redux

在“多核素数检查器的代码”中,我们研究了 procs.py,一个使用 multiprocessing 检查一些大数的素数性质的脚本。在示例 20-6 中,我们使用 ProcessPoolExecutorproc_pool.py 程序中解决了相同的问题。从第一个导入到最后的 main() 调用,procs.py 有 43 行非空代码,而 proc_pool.py 只有 31 行,比原来的短了 28%。

示例 20-6. proc_pool.py: procs.py 使用 ProcessPoolExecutor 重写
import sys
from concurrent import futures  # ①
from time import perf_counter
from typing import NamedTuple
from primes import is_prime, NUMBERS
class PrimeResult(NamedTuple):  # ②
    n: int
    flag: bool
    elapsed: float
def check(n: int) -> PrimeResult:
    t0 = perf_counter()
    res = is_prime(n)
    return PrimeResult(n, res, perf_counter() - t0)
def main() -> None:
    if len(sys.argv) < 2:
        workers = None      # ③
    else:
        workers = int(sys.argv[1])
    executor = futures.ProcessPoolExecutor(workers)  # ④
    actual_workers = executor._max_workers  # type: ignore # ⑤
    print(f'Checking {len(NUMBERS)} numbers with {actual_workers} processes:')
    t0 = perf_counter()
    numbers = sorted(NUMBERS, reverse=True)  # ⑥
    with executor:  # ⑦
        for n, prime, elapsed in executor.map(check, numbers):  # ⑧
            label = 'P' if prime else ' '
            print(f'{n:16}  {label} {elapsed:9.6f}s')
    time = perf_counter() - t0
    print(f'Total time: {time:.2f}s')
if __name__ == '__main__':
    main()

不需要导入 multiprocessingSimpleQueue 等;concurrent.futures 隐藏了所有这些。

PrimeResult元组和check函数与procs.py中看到的相同,但我们不再需要队列和worker函数。

如果没有给出命令行参数,我们不再决定使用多少工作进程,而是将workers设置为None,让ProcessPoolExecutor自行决定。

在➐中我在with块之前构建了ProcessPoolExecutor,这样我就可以在下一行显示实际的工作进程数。

_max_workersProcessPoolExecutor的一个未记录的实例属性。我决定使用它来显示workers变量为None时的工作进程数。Mypy在我访问它时正确地抱怨,所以我放了type: ignore注释来消除警告。

将要检查的数字按降序排序。这将揭示proc_pool.pyprocs.py在行为上的差异。请参见本示例后的解释。

使用executor作为上下文管理器。

executor.map调用返回由check返回的PrimeResult实例,顺序与numbers参数相同。

如果你运行示例 20-6,你会看到结果严格按降序出现,就像示例 20-7 中所示。相比之下,procs.py的输出顺序(在“基于进程的解决方案”中显示)受到检查每个数字是否为质数的难度的影响。例如,procs.py在顶部显示了 7777777777777777 的结果,因为它有一个较低的除数 7,所以is_prime很快确定它不是质数。

相比之下,7777777536340681 是 88191709²,因此is_prime将花费更长的时间来确定它是一个合数,甚至更长的时间来找出 7777777777777753 是质数—因此这两个数字都出现在procs.py输出的末尾。

运行proc_pool.py,你会观察到结果严格按降序排列,但在显示 9999999999999999 的结果后,程序似乎会卡住。

示例 20-7. proc_pool.py 的输出
$ ./proc_pool.py
Checking 20 numbers with 12 processes:
9999999999999999     0.000024s # ① 9999999999999917  P  9.500677s # ② 7777777777777777     0.000022s # ③ 7777777777777753  P  8.976933s
7777777536340681     8.896149s
6666667141414921     8.537621s
6666666666666719  P  8.548641s
6666666666666666     0.000002s
5555555555555555     0.000017s
5555555555555503  P  8.214086s
5555553133149889     8.067247s
4444444488888889     7.546234s
4444444444444444     0.000002s
4444444444444423  P  7.622370s
3333335652092209     6.724649s
3333333333333333     0.000018s
3333333333333301  P  6.655039s
 299593572317531  P  2.072723s
 142702110479723  P  1.461840s
               2  P  0.000001s
Total time: 9.65s

这行出现得非常快。

这行需要超过 9.5 秒才能显示出来。

所有剩下的行几乎立即出现。

这就是proc_pool.py表现出这种方式的原因:

  • 如前所述,executor.map(check, numbers)返回的结果与给定的numbers顺序相同。
  • 默认情况下,proc_pool.py使用与 CPU 数量相同的工作进程数——当max_workersNone时,这就是ProcessPoolExecutor的做法。在这台笔记本电脑上是 12 个进程。
  • 因为我们按降序提交numbers,第一个是 9999999999999999;以 9 为除数,它会迅速返回。
  • 第二个数字是 9999999999999917,样本中最大的质数。这将比所有其他数字检查花费更长的时间。
  • 与此同时,其余的 11 个进程将检查其他数字,这些数字要么是质数,要么是具有大因子的合数,要么是具有非常小因子的合数。
  • 当负责 9999999999999917 的工作进程最终确定那是一个质数时,所有其他进程已经完成了最后的工作,因此结果会立即显示出来。
注意

尽管proc_pool.py的进度不像procs.py那样明显,但对于相同数量的工作进程和 CPU 核心,总体执行时间几乎与图 19-2 中描述的相同。

理解并发程序的行为并不直接,因此这里有第二个实验,可以帮助你可视化Executor.map的操作。

试验Executor.map

让我们来研究Executor.map,现在使用一个具有三个工作线程的ThreadPoolExecutor运行五个可调用函数,输出带时间戳的消息。代码在示例 20-8 中,输出在示例 20-9 中。

示例 20-8。demo_executor_map.py:ThreadPoolExecutormap方法的简单演示。
from time import sleep, strftime
from concurrent import futures
def display(*args):  # ①
    print(strftime('[%H:%M:%S]'), end=' ')
    print(*args)
def loiter(n):  # ②
    msg = '{}loiter({}): doing nothing for {}s...'
    display(msg.format('\t'*n, n, n))
    sleep(n)
    msg = '{}loiter({}): done.'
    display(msg.format('\t'*n, n))
    return n * 10  # ③
def main():
    display('Script starting.')
    executor = futures.ThreadPoolExecutor(max_workers=3)  # ④
    results = executor.map(loiter, range(5))  # ⑤
    display('results:', results)  # ⑥
    display('Waiting for individual results:')
    for i, result in enumerate(results):  # ⑦
        display(f'result {i}: {result}')
if __name__ == '__main__':
    main()

这个函数简单地打印出它收到的任何参数,前面加上格式为[HH:MM:SS]的时间戳。

loiter除了在开始时显示消息、休眠n秒,然后在结束时显示消息外什么也不做;制表符用于根据n的值缩进消息。

loiter返回n * 10,因此我们可以看到如何收集结果。

创建一个具有三个线程的ThreadPoolExecutor

executor提交五个任务。由于只有三个线程,因此只有其中三个任务会立即启动:调用loiter(0)loiter(1)loiter(2);这是一个非阻塞调用。

立即显示调用executor.mapresults:它是一个生成器,正如示例 20-9 中的输出所示。

for循环中的enumerate调用将隐式调用next(results),这将进而在(内部的)代表第一个调用loiter(0)_f future 上调用_f.result()result方法将阻塞直到 future 完成,因此此循环中的每次迭代都必须等待下一个结果准备就绪。

鼓励你运行示例 20-8,看到显示逐步更新。在此过程中,尝试调整ThreadPoolExecutormax_workers参数以及产生executor.map调用参数的range函数,或者用手动选择的值列表替换它以创建不同的延迟。

示例 20-9 展示了示例 20-8 的一个运行示例。

示例 20-9。来自示例 20-8 的 demo_executor_map.py 的示例运行。
$ python3 demo_executor_map.py
[15:56:50] Script starting. # ① [15:56:50] loiter(0): doing nothing for 0s... # ② [15:56:50] loiter(0): done.
[15:56:50]      loiter(1): doing nothing for 1s... # ③ [15:56:50]              loiter(2): doing nothing for 2s...
[15:56:50] results: <generator object result_iterator at 0x106517168> # ④ [15:56:50]                      loiter(3): doing nothing for 3s... # ⑤ [15:56:50] Waiting for individual results:
[15:56:50] result 0: 0 # ⑥ [15:56:51]      loiter(1): done. # ⑦ [15:56:51]                              loiter(4): doing nothing for 4s...
[15:56:51] result 1: 10 # ⑧ [15:56:52]              loiter(2): done. # ⑨ [15:56:52] result 2: 20
[15:56:53]                      loiter(3): done.
[15:56:53] result 3: 30
[15:56:55]                              loiter(4): done. # ⑩ [15:56:55] result 4: 40

此运行开始于 15:56:50。

第一个线程执行loiter(0),因此它将休眠 0 秒并在第二个线程有机会启动之前返回,但结果可能有所不同。⁶

loiter(1)loiter(2)立即启动(因为线程池有三个工作线程,可以同时运行三个函数)。

这表明executor.map返回的results是一个生成器;到目前为止,无论任务数量和max_workers设置如何,都不会阻塞。

因为loiter(0)已经完成,第一个工作线程现在可以开始第四个线程执行loiter(3)

这是执行可能会阻塞的地方,取决于给loiter调用的参数:results生成器的__next__方法必须等待第一个 future 完成。在这种情况下,它不会阻塞,因为对loiter(0)的调用在此循环开始之前已经完成。请注意,到目前为止,所有操作都发生在同一秒内:15:56:50。

一秒钟后,loiter(1)完成,在 15:56:51。线程被释放以启动loiter(4)

loiter(1)的结果显示为:10。现在for循环将阻塞等待loiter(2)的结果。

模式重复:loiter(2)完成,显示其结果;loiter(3)也是如此。

直到loiter(4)完成前有 2 秒的延迟,因为它在 15:56:51 开始,并且 4 秒内什么也没做。

Executor.map函数易于使用,但通常最好在准备就绪时获取结果,而不考虑提交的顺序。为此,我们需要Executor.submit方法和futures.as_completed函数的组合,正如我们在 Example 20-4 中看到的那样。我们将在“使用 futures.as_completed”中回到这种技术。

提示

executor.submitfutures.as_completed的组合比executor.map更灵活,因为您可以submit不同的可调用函数和参数,而executor.map设计为在不同的参数上运行相同的可调用函数。此外,您传递给futures.as_completed的 future 集合可能来自多个执行器——也许一些是由ThreadPoolExecutor实例创建的,而其他一些来自ProcessPoolExecutor

在下一节中,我们将使用新要求恢复标志下载示例,这将迫使我们迭代futures.as_completed的结果,而不是使用executor.map

带有进度显示和错误处理的下载

如前所述,“并发 Web 下载”中的脚本没有错误处理,以使其更易于阅读,并对比三种方法的结构:顺序,线程和异步。

为了测试处理各种错误条件,我创建了flags2示例:

flags2_common.py

该模块包含所有flags2示例中使用的常见函数和设置,包括一个main函数,负责命令行解析,计时和报告结果。这实际上是支持代码,与本章主题无直接关系,因此我不会在这里列出源代码,但您可以在fluentpython/example-code-2e存储库中阅读:20-executors/getflags/flags2_common.py

flags2_sequential.py

具有适当错误处理和进度条显示的顺序 HTTP 客户端。其download_one函数也被flags2_threadpool.py使用。

flags2_threadpool.py

基于futures.ThreadPoolExecutor的并发 HTTP 客户端,用于演示错误处理和进度条的集成。

flags2_asyncio.py

与上一个示例具有相同功能,但使用asynciohttpx实现。这将在“增强 asyncio 下载器”中介绍,在第二十一章中。

在测试并发客户端时要小心

在公共 Web 服务器上测试并发 HTTP 客户端时,您可能每秒生成许多请求,这就是拒绝服务(DoS)攻击的方式。在命中公共服务器时,请谨慎限制您的客户端。对于测试,请设置本地 HTTP 服务器。有关说明,请参阅“设置测试服务器”。

flags2示例最显著的特点是它们具有一个使用tqdm实现的动画文本模式进度条。我在 YouTube 上发布了一个108 秒的视频来展示进度条,并对比三个flags2脚本的速度。在视频中,我从顺序下载开始,但在 32 秒后中断了,因为要花费超过 5 分钟才能访问 676 个 URL 并获取 194 个标志。然后我分别运行了线程和asyncio脚本三次,每次都在 6 秒内完成任务(即,速度超过 60 倍)。图 20-1 显示了两个屏幕截图:运行flags2_threadpool.py时和脚本完成后。

图 20-1。左上角:flags2_threadpool.py 运行时由 tqdm 生成的实时进度条;右下角:脚本完成后相同的终端窗口。

最简单的tqdm示例出现在项目的README.md中的动画*.gif中。如果在安装了tqdm*包后在 Python 控制台中输入以下代码,您将看到一个动画进度条,其中的注释是:

>>> import time
>>> from tqdm import tqdm
>>> for i in tqdm(range(1000)):
...     time.sleep(.01)
...
>>> # -> progress bar will appear here <-

除了整洁的效果外,tqdm函数在概念上也很有趣:它消耗任何可迭代对象,并生成一个迭代器,当它被消耗时,显示进度条并估计完成所有迭代所需的剩余时间。为了计算这个估计值,tqdm需要获得一个具有len的可迭代对象,或者另外接收期望的项目数量作为total=参数。将tqdm与我们的flags2示例集成提供了一个机会,深入了解并发脚本的实际工作原理,强制我们使用futures.as_completedasyncio.as_completed函数,以便tqdm可以在每个未来完成时显示进度。

flags2示例的另一个特点是命令行界面。所有三个脚本都接受相同的选项,您可以通过在任何脚本中使用-h选项来查看它们。示例 20-10 显示了帮助文本。

流畅的 Python 第二版(GPT 重译)(十一)(2)https://developer.aliyun.com/article/1484754

相关文章
|
4月前
|
存储 NoSQL 索引
Python 金融编程第二版(GPT 重译)(一)(4)
Python 金融编程第二版(GPT 重译)(一)
63 2
|
3月前
|
人工智能 API Python
Openai python调用gpt测试代码
这篇文章提供了使用OpenAI的Python库调用GPT-4模型进行聊天的测试代码示例,包括如何设置API密钥、发送消息并接收AI回复。
|
4月前
|
存储 算法 数据可视化
Python 金融编程第二版(GPT 重译)(一)(1)
Python 金融编程第二版(GPT 重译)(一)
93 1
|
4月前
|
数据库 开发者 Python
异步编程不再难!Python asyncio库实战,让你的代码流畅如丝!
【7月更文挑战第10天】Python的asyncio库简化了异步编程,提高并发处理能力。async定义异步函数,await等待结果而不阻塞。示例展示了如何用aiohttp进行异步HTTP请求及使用asyncio.gather并发处理任务。通过asyncio,Python开发者能更高效地处理网络I/O和其他并发场景。开始探索异步编程,提升代码效率!**
61 0
|
4月前
|
存储 算法 数据建模
Python 金融编程第二版(GPT 重译)(一)(5)
Python 金融编程第二版(GPT 重译)(一)
37 0
|
4月前
|
安全 Shell 网络安全
Python 金融编程第二版(GPT 重译)(一)(3)
Python 金融编程第二版(GPT 重译)(一)
26 0
|
4月前
|
算法 Linux Docker
Python 金融编程第二版(GPT 重译)(一)(2)
Python 金融编程第二版(GPT 重译)(一)
46 0
|
6天前
|
存储 数据挖掘 开发者
Python编程入门:从零到英雄
在这篇文章中,我们将一起踏上Python编程的奇幻之旅。无论你是编程新手,还是希望拓展技能的开发者,本教程都将为你提供一条清晰的道路,引导你从基础语法走向实际应用。通过精心设计的代码示例和练习,你将学会如何用Python解决实际问题,并准备好迎接更复杂的编程挑战。让我们一起探索这个强大的语言,开启你的编程生涯吧!
|
12天前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
12天前
|
机器学习/深度学习 数据挖掘 Python
Python编程入门——从零开始构建你的第一个程序
【10月更文挑战第39天】本文将带你走进Python的世界,通过简单易懂的语言和实际的代码示例,让你快速掌握Python的基础语法。无论你是编程新手还是想学习新语言的老手,这篇文章都能为你提供有价值的信息。我们将从变量、数据类型、控制结构等基本概念入手,逐步过渡到函数、模块等高级特性,最后通过一个综合示例来巩固所学知识。让我们一起开启Python编程之旅吧!
下一篇
无影云桌面