11.python并发入门(part10 多进程之间实现通信,以及进程之间的数据共享)

简介:

一、进程队列。

多个进程去操作一个队列中的数据,外观上看起来一个进程队列,只是一个队列而已,单实际上,你开了多少个进程,这些进程一旦去使用这个队列,那么这个队列就会被复制多少份。

(队列=管道+锁)

这么做的主要原因就是,不同进程之间的数据是无法共享的。

下面是使用进程队列使多进程之间互相通信的示例:

下面这个例子,就是往进程队列里面put内容。

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(que,n):

    que.put(n+1)

    print "son process queue id is %s:" %(id(que))

if __name__ == '__main__':

    q1 = multiprocessing.Queue()  #生成一个进程队列!!!!这个队列和普通队列是不同的!!

    print "main process queue id is %s:" %(id(q1))

    for i in range(3):

        p = multiprocessing.Process(target=func1,args=(q1,i))

        p.start()

    print q1.get()

    print q1.get()

    print q1.get()


输出结果:

#windows和类unix系统运行的结果是不一样的!!在windows系统下,进程队列的id号是不同的!!

main process queue id is 4459325136:

son process queue id is 4459325136:

1

son process queue id is 4459325136:

2

son process queue id is 4459325136:

3


二、通过管道来实现进程间通信。

下面是使用管道的方式让两个进程通信的示例。

下面这段代码主要实现了父进程给子进程互相发送消息。

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(conn):

    conn.send("hi daddy!") #子进程给父进程发送内容。

    response = conn.recv() #子进程等待接收父进程发来的内容。

    print "respnse:%s" %(response)

    conn.close()

    print "child conn id %s" %(id(child_conn))

if __name__ == '__main__':

    parent_conn,child_conn = multiprocessing.Pipe() #使用multiprocessing的pipe类来创建出两个双向的管道对象,注意哦,这两个管道都是双向的,可以收也可以发。

    print "main child conn: %s" %(id(child_conn))

    p = multiprocessing.Process(target=func1,args=(child_conn,))

    p.start()

    print parent_conn.recv() #父进程等待接收子进程的内容。

    parent_conn.send("hi child!")  #父进程给子进程发送内容。

    p.join()

使用pipe类生成的两个管道相当于两部电话,一个给了父进程,另一个给了子进程。

官方说法如下:

The two connection objects returned by Pipe() represent the two ends of the pipe. Each connection object has send() and recv() methods (among others). Note that data in a pipe may become corrupted if two processes (or threads) try to read from or write to the same end of the pipe at the same time. Of course there is no risk of corruption from processes using different ends of the pipe at the same time.

pipe对象会创建出两个链接对象(管道),每个链接对象(管道)的两端,都可以send(发送),recv(接收)等。

不过需要注意的是!两个进程或者线程同时,去读取或者写入管道的同一端,那么数据很有可能会损坏!!


总结下进程队列和管道之间的关系:

管道和进程队列,实现的都是两个子进程之间,以及父进程和子进程之间的通信功能,它们做的都是同一件事,只不过是实现的方法不一样,它们完成的都只是进程和进程之间的通信,注意!!只是数据通信!!而不是数据共享!这个概念不要弄混了!

那什么是真正的数据共享?

当一个进程去修改某个数据,另外一个进程内部也会产生变化,这才是真正意义上在多进程之间实现的数据共享。

在举一个比较好理解的例子,假如一个列表里面有三个元素,进程1去这个列表中删除一个元素,进程2再去print这个列表时,这个列表里只剩下了两个元素。


那么如何去实现进程间的数据共享?这就要由Manager去实现了。


三、使用Manager来实现进程和进程间的数据共享。

队列和管道只是实现了数据交互,并没实现数据共享,共享就是一个进程去更改另一个进程的数据。

官方对于Managers的介绍:

A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.

 Manager()会返回一个 Manager对象,它控制一个python服务进程,并允许其他进程使用代理的方式来操作它们


下面是manger对象都支持哪些数据类型?

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example:


列表,字典,名称空间(变量),锁,递归锁,信号量,条件变量,事件,队列...等...因为有些类型博主也没有接触过......


下面是个进程间实现数据共享的例子:

#!/usr/local/bin/python2.7

# -*- coding:utf-8 -*-

import multiprocessing

def func1(dic_1,list_1,name):

    dic_1[name] = 'test'

    #dic_1['num'] = 123

    list_1.append(name)

    print "son process dict id:%s list id :%s " %(id(dic_1),id(list_1))

if __name__ == '__main__':

    with multiprocessing.Manager() as manager:

        d1 = manager.dict()  #注意这里!!如果字典和列表等数据类型,想要被进程之间共享,必须要使用manager下面封装好的类!!

        l1 = manager.list()  #这里使用的也是manager中已经封装好的特殊list!

        print "main process dict id:%s list id :%s " %(id(d1),id(l1))

        pro_list = []

        for i in range(10):

            p = multiprocessing.Process(target=func1,args=(d1,l1,str(i),))

            p.start()

            pro_list.append(p)

        for res in pro_list:

            res.join()

            print d1

            print l1






      本文转自苏浩智 51CTO博客,原文链接:http://blog.51cto.com/suhaozhi/1925925,如需转载请自行联系原作者


相关文章
|
1天前
|
安全 Python
Python 多进程日志输出到同一个文件并实现日志回滚
Python 多进程想要实现将日志输出到同一个文件中,使用同一个日志句柄,且日志需要按照日期,大小回滚。
|
5天前
|
Java 测试技术 Python
Python的多线程允许在同一进程中并发执行任务
【5月更文挑战第17天】Python的多线程允许在同一进程中并发执行任务。示例1展示了创建5个线程打印"Hello World",每个线程调用同一函数并使用`join()`等待所有线程完成。示例2使用`ThreadPoolExecutor`下载网页,创建线程池处理多个URL,打印出每个网页的大小。Python多线程还可用于线程间通信和同步,如使用Queue和Lock。
23 1
|
6天前
|
数据处理 Python
Python并发编程:实现高效的多线程与多进程
Python作为一种高级编程语言,提供了强大的并发编程能力,通过多线程和多进程技术,可以实现程序的并发执行,提升系统的性能和响应速度。本文将介绍Python中多线程和多进程的基本概念,以及如何利用它们实现高效的并发编程,解决实际开发中的并发性问题。
|
7天前
|
监控 Python
python过滤指定进程
python过滤指定进程
16 1
|
7天前
|
运维 监控 Ubuntu
Python实现ubuntu系统进程内存监控
Python实现ubuntu系统进程内存监控
18 1
|
7天前
|
存储 Linux Shell
Linux:进程等待 & 进程替换
Linux:进程等待 & 进程替换
30 9
|
7天前
|
存储 Linux C语言
Linux:进程创建 & 进程终止
Linux:进程创建 & 进程终止
32 6
|
7天前
|
Unix Linux 调度
linux线程与进程的区别及线程的优势
linux线程与进程的区别及线程的优势
|
7天前
|
存储 安全 Linux
【Linux】详解进程通信中信号量的本质&&同步和互斥的概念&&临界资源和临界区的概念
【Linux】详解进程通信中信号量的本质&&同步和互斥的概念&&临界资源和临界区的概念
|
7天前
|
Linux C++
【Linux】详解进程程序替换
【Linux】详解进程程序替换