Python中的多进程通信实践指南

简介: Python中的多进程通信实践指南

并发编程领域,多进程是一种常见的模式,它可以充分利用多核处理器的计算能力。然而,进程间的通信(Inter-Process Communication,IPC)是多进程编程中的一个核心议题。Python标准库中的multiprocessing模块提供了多种方式来实现进程间的通信。我将深入探讨如何使用Python中的multiprocessing模块实现进程间通信。

使用队列(Queue)进行进程间通信

队列是一种基于先进先出(FIFO)原则的数据结构,非常适合用于进程间的消息传递。multiprocessing模块提供了一个同名的Queue类,可以被多个进程共享。

以下是一个简单的例子,演示了如何使用multiprocessing.Queue来在两个进程间传递消息:

from multiprocessing import Process, Queue
def producer(queue):
    # 生产者进程,将数据放入队列
    for i in range(5):
        queue.put(f"数据 {i}")
        print(f"数据 {i} 已发送。")
def consumer(queue):
    # 消费者进程,从队列中获取数据
    while True:
        data = queue.get()
        if data is None:
            break  # 如果收到None,代表发送完毕
        print(f"数据 {data} 已接收。")
if __name__ == "__main__":
    # 创建一个共享队列
    queue = Queue()
    # 创建生产者和消费者进程
    prod = Process(target=producer, args=(queue,))
    cons = Process(target=consumer, args=(queue,))
    # 启动进程
    prod.start()
    cons.start()
    # 等待生产者结束
    prod.join()
    # 发送结束信号
    queue.put(None)
    # 等待消费者结束
    cons.join()

在上述代码中:

  • 第1-2行:导入了必要的类。
  • 第4-9行:定义了一个名为producer的函数,它是生产者进程的入口点,用于向队列发送数据。
  • 第11-18行:定义了一个名为consumer的函数,它是消费者进程的入口点,用于从队列接收数据。
  • 第20-31行:在__main__保护块中创建队列和进程,并启动它们。这是必要的,以防止子进程无限递归地创建新进程。

使用管道(Pipe)进行进程间通信

管道是另一种常见的IPC机制。在multiprocessing模块中,Pipe()函数返回一对连接对象,分别代表管道的两端。每一端都有send()recv()方法,用于发送和接收消息。

下面的例子展示了如何使用multiprocessing.Pipe进行通信:

from multiprocessing import Process, Pipe
def sender(pipe):
    # 发送端进程,发送数据
    for i in range(5):
        pipe.send(f"数据 {i}")
        print(f"数据 {i} 已发送。")
def receiver(pipe):
    # 接收端进程,接收数据
    for i in range(5):
        data = pipe.recv()
        print(f"数据 {data} 已接收。")
if __name__ == "__main__":
    # 创建管道
    parent_conn, child_conn = Pipe()
    # 创建发送和接收进程
    sender_proc = Process(target=sender, args=(parent_conn,))
    receiver_proc = Process(target=receiver, args=(child_conn,))
    # 启动进程
    sender_proc.start()
    receiver_proc.start()
    # 等待进程结束
    sender_proc.join()
    receiver_proc.join()

在这段代码中:

  • 第1-2行:导入了必要的类。
  • 第4-9行:定义了一个名为sender的函数,它是发送端进程的入口点。
  • 第11-16行:定义了一个名为receiver的函数,它是接收端进程的入口点。
  • 第18-28行:在__main__保护块中创建了管道的两端、进程,并启动它们。

使用共享内存(Value, Array)进行进程间通信

multiprocessing提供了ValueArray类,允许创建可以被多个进程共享的数据。这些数据存储在共享内存中,进程可以直接读写。

下面是一个使用共享内存的例子:

from multiprocessing import Process, Value, Array
def add_one(number, array):
    # 对共享数据进行操作
    number.value += 1
    for i in range(len(array)):
        array[i] += 1
if __name__ == "__main__":
    # 创建共享数据
    shared_number = Value('i', 0)
    shared_array = Array('d', [0.0, 100.0, 200.0])
    # 创建并启动进程
    process_list = []
    for _ in range(10):
        p = Process(target=add_one, args=(shared_number, shared_array))
        process_list.append(p)
        p.start()
    # 等待所有进程完成
    for p in process_list:
        p.join()
    # 打印共享数据的结果
    print(f"共享数字: {shared_number.value}")
    print(f"共享数组: {list(shared_array)}")

在这个例子中:

  • 第1-2行:导入了必要的类。
  • 第4-8行:定义了一个名为add_one的函数,它接收共享的数字和数组,并对它们的每个元素加一。
  • 第10-23行:在__main__保护块中创建共享数据、进程,并启动这些进程。

Python的multiprocessing模块,通过队列、管道和共享内存等机制实现了进程间通信的几种方法。这些机制在解决并发编程中的数据交换问题时非常有用



目录
相关文章
|
3天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1536 5
|
1天前
|
编解码 Java 程序员
写代码还有专业的编程显示器?
写代码已经十个年头了, 一直都是习惯直接用一台Mac电脑写代码 偶尔接一个显示器, 但是可能因为公司配的显示器不怎么样, 还要接转接头 搞得桌面杂乱无章,分辨率也低,感觉屏幕还是Mac自带的看着舒服
|
1月前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
6天前
|
人工智能 Rust Java
10月更文挑战赛火热启动,坚持热爱坚持创作!
开发者社区10月更文挑战,寻找热爱技术内容创作的你,欢迎来创作!
554 22
|
3天前
|
存储 SQL 关系型数据库
彻底搞懂InnoDB的MVCC多版本并发控制
本文详细介绍了InnoDB存储引擎中的两种并发控制方法:MVCC(多版本并发控制)和LBCC(基于锁的并发控制)。MVCC通过记录版本信息和使用快照读取机制,实现了高并发下的读写操作,而LBCC则通过加锁机制控制并发访问。文章深入探讨了MVCC的工作原理,包括插入、删除、修改流程及查询过程中的快照读取机制。通过多个案例演示了不同隔离级别下MVCC的具体表现,并解释了事务ID的分配和管理方式。最后,对比了四种隔离级别的性能特点,帮助读者理解如何根据具体需求选择合适的隔离级别以优化数据库性能。
192 3
|
9天前
|
JSON 自然语言处理 数据管理
阿里云百炼产品月刊【2024年9月】
阿里云百炼产品月刊【2024年9月】,涵盖本月产品和功能发布、活动,应用实践等内容,帮助您快速了解阿里云百炼产品的最新动态。
阿里云百炼产品月刊【2024年9月】
|
22天前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
10天前
|
Linux 虚拟化 开发者
一键将CentOs的yum源更换为国内阿里yum源
一键将CentOs的yum源更换为国内阿里yum源
530 5
|
8天前
|
存储 人工智能 搜索推荐
数据治理,是时候打破刻板印象了
瓴羊智能数据建设与治理产品Datapin全面升级,可演进扩展的数据架构体系为企业数据治理预留发展空间,推出敏捷版用以解决企业数据量不大但需构建数据的场景问题,基于大模型打造的DataAgent更是为企业用好数据资产提供了便利。
322 2
|
6天前
|
XML 安全 Java
【Maven】依赖管理,Maven仓库,Maven核心功能
【Maven】依赖管理,Maven仓库,Maven核心功能
217 3