11.python并发入门(part10 多进程之间实现通信,以及进程之间的数据共享)

简介:

一、进程队列。

多个进程去操作一个队列中的数据,外观上看起来一个进程队列,只是一个队列而已,单实际上,你开了多少个进程,这些进程一旦去使用这个队列,那么这个队列就会被复制多少份。

(队列=管道+锁)

这么做的主要原因就是,不同进程之间的数据是无法共享的。

下面是使用进程队列使多进程之间互相通信的示例:

下面这个例子,就是往进程队列里面put内容。

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(que,n):

    que.put(n+1)

    print "son process queue id is %s:" %(id(que))

if __name__ == '__main__':

    q1 = multiprocessing.Queue()  #生成一个进程队列!!!!这个队列和普通队列是不同的!!

    print "main process queue id is %s:" %(id(q1))

    for i in range(3):

        p = multiprocessing.Process(target=func1,args=(q1,i))

        p.start()

    print q1.get()

    print q1.get()

    print q1.get()


输出结果:

#windows和类unix系统运行的结果是不一样的!!在windows系统下,进程队列的id号是不同的!!

main process queue id is 4459325136:

son process queue id is 4459325136:

1

son process queue id is 4459325136:

2

son process queue id is 4459325136:

3


二、通过管道来实现进程间通信。

下面是使用管道的方式让两个进程通信的示例。

下面这段代码主要实现了父进程给子进程互相发送消息。

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(conn):

    conn.send("hi daddy!") #子进程给父进程发送内容。

    response = conn.recv() #子进程等待接收父进程发来的内容。

    print "respnse:%s" %(response)

    conn.close()

    print "child conn id %s" %(id(child_conn))

if __name__ == '__main__':

    parent_conn,child_conn = multiprocessing.Pipe() #使用multiprocessing的pipe类来创建出两个双向的管道对象,注意哦,这两个管道都是双向的,可以收也可以发。

    print "main child conn: %s" %(id(child_conn))

    p = multiprocessing.Process(target=func1,args=(child_conn,))

    p.start()

    print parent_conn.recv() #父进程等待接收子进程的内容。

    parent_conn.send("hi child!")  #父进程给子进程发送内容。

    p.join()

使用pipe类生成的两个管道相当于两部电话,一个给了父进程,另一个给了子进程。

官方说法如下:

The two connection objects returned by Pipe() represent the two ends of the pipe. Each connection object has send() and recv() methods (among others). Note that data in a pipe may become corrupted if two processes (or threads) try to read from or write to the same end of the pipe at the same time. Of course there is no risk of corruption from processes using different ends of the pipe at the same time.

pipe对象会创建出两个链接对象(管道),每个链接对象(管道)的两端,都可以send(发送),recv(接收)等。

不过需要注意的是!两个进程或者线程同时,去读取或者写入管道的同一端,那么数据很有可能会损坏!!


总结下进程队列和管道之间的关系:

管道和进程队列,实现的都是两个子进程之间,以及父进程和子进程之间的通信功能,它们做的都是同一件事,只不过是实现的方法不一样,它们完成的都只是进程和进程之间的通信,注意!!只是数据通信!!而不是数据共享!这个概念不要弄混了!

那什么是真正的数据共享?

当一个进程去修改某个数据,另外一个进程内部也会产生变化,这才是真正意义上在多进程之间实现的数据共享。

在举一个比较好理解的例子,假如一个列表里面有三个元素,进程1去这个列表中删除一个元素,进程2再去print这个列表时,这个列表里只剩下了两个元素。


那么如何去实现进程间的数据共享?这就要由Manager去实现了。


三、使用Manager来实现进程和进程间的数据共享。

队列和管道只是实现了数据交互,并没实现数据共享,共享就是一个进程去更改另一个进程的数据。

官方对于Managers的介绍:

A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.

 Manager()会返回一个 Manager对象,它控制一个python服务进程,并允许其他进程使用代理的方式来操作它们


下面是manger对象都支持哪些数据类型?

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example:


列表,字典,名称空间(变量),锁,递归锁,信号量,条件变量,事件,队列...等...因为有些类型博主也没有接触过......


下面是个进程间实现数据共享的例子:

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(dic_1,list_1,name):

    dic_1[name] = 'test'

    #dic_1['num'] = 123

    list_1.append(name)

    print "son process dict id:%s list id :%s " %(id(dic_1),id(list_1))

if __name__ == '__main__':

    with multiprocessing.Manager() as manager:

        d1 = manager.dict()  #注意这里!!如果字典和列表等数据类型,想要被进程之间共享,必须要使用manager下面封装好的类!!

        l1 = manager.list()  #这里使用的也是manager中已经封装好的特殊list!

        print "main process dict id:%s list id :%s " %(id(d1),id(l1))

        pro_list = []

        for i in range(10):

            p = multiprocessing.Process(target=func1,args=(d1,l1,str(i),))

            p.start()

            pro_list.append(p)

        for res in pro_list:

            res.join()

            print d1

            print l1






      本文转自苏浩智 51CTO博客,原文链接:http://blog.51cto.com/suhaozhi/1925925,如需转载请自行联系原作者


相关文章
|
5月前
|
机器学习/深度学习 存储 算法
解锁文件共享软件背后基于 Python 的二叉搜索树算法密码
文件共享软件在数字化时代扮演着连接全球用户、促进知识与数据交流的重要角色。二叉搜索树作为一种高效的数据结构,通过有序存储和快速检索文件,极大提升了文件共享平台的性能。它依据文件名或时间戳等关键属性排序,支持高效插入、删除和查找操作,显著优化用户体验。本文还展示了用Python实现的简单二叉搜索树代码,帮助理解其工作原理,并展望了该算法在分布式计算和机器学习领域的未来应用前景。
|
4月前
|
SQL Oracle 关系型数据库
【YashanDB知识库】共享利用Python脚本解决Oracle的SQL脚本@@用法
【YashanDB知识库】共享利用Python脚本解决Oracle的SQL脚本@@用法
|
4月前
|
存储 算法 文件存储
探秘文件共享服务之哈希表助力 Python 算法实现
在数字化时代,文件共享服务不可或缺。哈希表(散列表)通过键值对存储数据,利用哈希函数将键映射到特定位置,极大提升文件上传、下载和搜索效率。例如,在大型文件共享平台中,文件名等信息作为键,物理地址作为值存入哈希表,用户检索时快速定位文件,减少遍历时间。此外,哈希表还用于文件一致性校验,确保传输文件未被篡改。以Python代码示例展示基于哈希表的文件索引实现,模拟文件共享服务的文件索引构建与检索功能。哈希表及其分布式变体如一致性哈希算法,保障文件均匀分布和负载均衡,持续优化文件共享服务性能。
|
4月前
|
SQL Oracle 关系型数据库
【YashanDB知识库】共享利用Python脚本解决Oracle的SQL脚本@@用法
本文来自YashanDB官网,介绍如何处理Oracle客户端sql*plus中使用@@调用同级目录SQL脚本的场景。崖山数据库23.2.x.100已支持@@用法,但旧版本可通过Python脚本批量重写SQL文件,将@@替换为绝对路径。文章通过Oracle示例展示了具体用法,并提供Python脚本实现自动化处理,最后调整批处理脚本以适配YashanDB运行环境。
|
5月前
|
消息中间件 Linux C++
c++ linux通过实现独立进程之间的通信和传递字符串 demo
的进程间通信机制,适用于父子进程之间的数据传输。希望本文能帮助您更好地理解和应用Linux管道,提升开发效率。 在实际开发中,除了管道,还可以根据具体需求选择消息队列、共享内存、套接字等其他进程间通信方
120 16
|
5月前
|
数据采集 Java 数据处理
Python实用技巧:轻松驾驭多线程与多进程,加速任务执行
在Python编程中,多线程和多进程是提升程序效率的关键工具。多线程适用于I/O密集型任务,如文件读写、网络请求;多进程则适合CPU密集型任务,如科学计算、图像处理。本文详细介绍这两种并发编程方式的基本用法及应用场景,并通过实例代码展示如何使用threading、multiprocessing模块及线程池、进程池来优化程序性能。结合实际案例,帮助读者掌握并发编程技巧,提高程序执行速度和资源利用率。
179 0
|
6月前
|
存储 算法 Serverless
剖析文件共享工具背后的Python哈希表算法奥秘
在数字化时代,文件共享工具不可或缺。哈希表算法通过将文件名或哈希值映射到存储位置,实现快速检索与高效管理。Python中的哈希表可用于创建简易文件索引,支持快速插入和查找文件路径。哈希表不仅提升了文件定位速度,还优化了存储管理和多节点数据一致性,确保文件共享工具高效运行,满足多用户并发需求,推动文件共享领域向更高效、便捷的方向发展。
|
8月前
|
并行计算 数据处理 调度
Python中的并发编程:探索多线程与多进程的奥秘####
本文深入探讨了Python中并发编程的两种主要方式——多线程与多进程,通过对比分析它们的工作原理、适用场景及性能差异,揭示了在不同应用需求下如何合理选择并发模型。文章首先简述了并发编程的基本概念,随后详细阐述了Python中多线程与多进程的实现机制,包括GIL(全局解释器锁)对多线程的影响以及多进程的独立内存空间特性。最后,通过实例演示了如何在Python项目中有效利用多线程和多进程提升程序性能。 ####
|
安全 Java 数据处理
Python网络编程基础(Socket编程)多线程/多进程服务器编程
【4月更文挑战第11天】在网络编程中,随着客户端数量的增加,服务器的处理能力成为了一个重要的考量因素。为了处理多个客户端的并发请求,我们通常需要采用多线程或多进程的方式。在本章中,我们将探讨多线程/多进程服务器编程的概念,并通过一个多线程服务器的示例来演示其实现。
|
10月前
|
调度 Python
python3多进程实战(python3经典编程案例)
该文章提供了Python3中使用多进程的实战案例,展示了如何通过Python的标准库`multiprocessing`来创建和管理进程,以实现并发任务的执行。
260 0

推荐镜像

更多