Python网络编程(进程池、进程间的通信)

简介: Python网络编程 Python进程池 Python进程间的通信

线程池的原理:
       线程池是预先创建线程的一种技术。线程池在还没有任务到来之前,
       创建一定数量的线程,放入空闲队列中。这些线程都是处于睡眠状态,
       即均为启动,不消耗CPU,而只是占用较小的内存空间。当请求到来之后,
       缓冲池给这次请求分配一个空闲线程,把请求传入此线程中运行,进行处理。
       当预先创建的线程都处于运行状态,即预制线程不够,线程池可以自由创建一定数量的新线程,
       用于处理更多的请求。当系统比较闲的时候,也可以通过移除一部分一直处于停用状态的线程。

进程间的通信原理:
         OS提供了沟通的媒介供进程之间“对话”用。既然要沟通,如同人类社会的沟通一样,
         沟通要付出时间和金钱,计算机中也一样,必然有沟通需要付出的成本。
         出于所解决问题的特性,OS提供了多种沟通的方式,每种方式的沟通成本也不尽相同,
         使用成本和沟通效率也有所不同。我们经常听到的 管道、消息队列、共享内存都是OS提供的供进程之间对话的方式。


Process(target, name, args, kwargs)
    name
       给 进程
        默认Process-1,Process-2..... 
       p.name 查看进程名
    args:
       以 元组的形式 给target函数传参
    kwargs:
       以 字典的形式 给对应键的值传参

进程对象的其他 常用属性方法
    p.name  p.start()   p.join()
    p.pid:
        获取创建进程的 pid
    p.is_alive():
        判断进程是处于alive状态
    p.daemon:
        默认为Flase 如果 设置为True 主进程结束杀死所有子进程
daemon属性 一定要在start()前设置
设置daemon 为True 一般 不需要加join()
daemon不是真正意义上的守护进程
        守护进程
      不受终端控制
      后台自动运行
     生命周期长


多进程copy一个文件拆分为两个进行保存


import os 
from multiprocessing import Process 
from time import sleep

#获取文件的大小
size = os.path.getsize("./timg.jpeg")  # 获取文件的字节数
# f = open("timg.jpeg",'rb')
#复制前半部分
def copy1(img):
    f = open(img,'rb')  # 二进制读取要复制的文件
    n = size // 2
    fw = open('1.jpeg','wb')  # 二进制创建文件

    while True:
        if n < 1024:  # 判断文件大小是否大于1024字节 如果小于则直接读取写入
            data = f.read(n)
            fw.write(data)
            break
        data = f.read(1024)  # 否则每次循环读取1024字节并写入
        fw.write(data)
        n -= 1024
    f.close()
    fw.close()

#复制后半部分
def copy2(img):
    f = open(img,'rb')  # 读取文件必须要每次读取 如果在父进程中打开文件流对像 
                        # 子进程会通同时调用一个文件流对像 由于文件流对象特性会记录游标
                        # 如若先执行后半部复制这前半部会导致读取不到数据
    fw = open('2.jpeg','wb')
    f.seek(size // 2,0)
    while True:
        data = f.read(1024)
        if not data:
            break 
        fw.write(data)
    fw.close()
    f.close()

p1 = Process(target = copy1,args = ('timg.jpeg',))  # 创建子进程并让子进程分别同时复制
p2 = Process(target = copy2,args = ('timg.jpeg',))
p1.start()
p2.start()
p1.join()
p2.join()




os.path.getsize('./1.txt'):
    读取文件大小
注:
    1.如果 多个子进程拷贝同一个 父进程的对象则多个 子进程
      使用的是同一个对象(如文件队形,套接字,队列,管道。。。)
    2.如果在 创建子进程后单独创建的对象,则多个 子进程各不相同


创建子自定义进程类
    1.编写类 继承Process
    2.在自定义类中 加载父类__init__以获取父类属性
      同时可以 自定义新的属性
    3 .重写run方法 在调用start时自动执行该方法
示例:

from multiprocessing import Process 
import time 

class ClockProcess(Process):
    def __init__(self,value):
        #调用父类init
        super().__init__()
        self.value = value 
    #重写run方法
    def run(self):
        for i in range(5):
            time.sleep(self.value)
            print("The time is {}".format(time.ctime()))

p = ClockProcess(2)
#自动执行run
p.start()

p.join()



进程的缺点:
    进程在 创建和销毁的过程中 消耗资源相对 较多

进程池技术:
    产生原因:
        如果有大量的任务需要多进程完成,而调用周期比较短且需要频繁创建
此时可能产生大量进程频繁创建销毁的情况  消耗计算机资源较大
    使用方法:
        1. 创建进程池在池内放入适当数量的进程
2. 将事件封装成函数放入进程池
3.事件不断运行, 直到所有放入进程池事件运行完成
4. 关闭进程池回收进程

from multiprocessing import pool
    pool(Process)
       功能: 创建进程池对象
       参数:进程数量
       返回值:进程池对象
    pool = pool()
    pool.apply_async(fun, args, kwds)(异步执行)
       功能: 将事件放入进程池内
       参数:
          fun:要执行的 函数
  args:以 元组形式为fun 传参
  kwds:以 字典形式为fun 传参
       返回值:
          返回一个事件对象,通过p. get()函数可以获取fun的返回值
    pool.close():
        功能:
    关闭进程池,无法再加入新的事件,并等待已有事件结束执行
    pool.join()
        功能: 回收进程池
    pool.apply(fun, args, kwds)(同步执行)
       功能:将事件放入进程池内
       参数:
          fun:要执行的函数
  args:以元组形式为fun传参
  kwds:以字典形式为fun传参
       没有返回值
示例:

from multiprocessing import Pool 
from time import sleep,ctime 

def worker(msg):
    sleep(2)
    print(msg)
    return ctime()

#创建进程池对象
pool = Pool(processes = 4)

result = []
for i in range(10):
    msg = "hello %d"%i 
    #将事件放入进程池
    r = pool.apply_async(func = worker,args = (msg,))
    result.append(r)
    
    #同步执行
    # pool.apply(func = worker,args = (msg,))

#关闭进程池
pool.close()
#回收
pool.join()

#获取事件函数返回值
for i in result:
    print(i.get())


    pool.map(func, iter)
        功能:
    要执行的 事件放入进程池
参数:
    func  要执行的 函数
    iter  可迭代对象
示例:

from multiprocessing import Pool
import time 

def fun(n):
    time.sleep(1)
    print("执行 pool map事件",n)
    return n ** 2 

pool = Pool(4)

#在进程池放入6个事件
r = pool.map(fun,range(6))  # map高阶函数 fun和iter执行6次
print("返回值列表:",r)

pool.close()
pool.join()



进程间的通信(IPC
    由于进程 空间独立资源无法共享, 
    此时在 进程间通讯需要专门的通讯方法
    通信方法:
       管道、消息队列、共享内存
       信号、信号量、套接字

       管道通信:
           在内存中 开辟一块内存空间形成管道结构
    多个进程使用同一个管道,即可通过 对管道读写操作进行通讯
   multiprocessing --> Pipe
   fd1,fd2 = Pipe(duplex=True)
       功能: 创建管道
       参数:
           默认表示 双向管道
   如果设置为 False则为 单向管道
       返回值:
           俩个管道对象的,分别表示管道的两端
   如果是 双向管道则均可读写
   如果是 单向管道fd1只读fd2只写
   fd.recv()
        功能:从管道 读取信息
返回值:读取到的内容
   当 管道为空则阻塞
    fd.send(data)
        功能: 向管道写入内容
参数:要写入的内容
   当 管道满时会阻塞
    写入几乎所有 Python所有数据类型

队列通信:
   在 内存开辟队列结构空间,多个进程可见,
    多个进程操作同一个队列对象可以 实现消息存取工作
   在取出时 必须按照存入 顺序取出先进先出
   q = Queue(maxsize=0)
     功能:
创建队列对象
     参数:
          maxsize 默认表示根据系统分配空间 储存消息
如果 传入一个正整数表示最多 存放多少条消息
     返回值:队列对象
    q.put(data,[block,timeout])
      功能:向队列 存入消息
      参数:
          data:存入消息( 支持Python数据类型
  block:默认 True表示当队 满时阻塞
         设置为 False 则为 非阻塞
  timeout:当 block为True是表示 超时检测
    data = q.get([block,timeout])
       功能:取出消息
       参数:
            block:设置为 True 当队列为 空时阻塞
           设置为 False表示 非阻塞
    timeout:
         当 block为True是表示 超时检测

   q.full() 判断队列是否为满
   q.empty()  判断队列 是否为空
    q.qsize()  获取队列中 消息的数量
   q.close()  关闭队列

        共享内存通信:
    在 内存中开辟一段空间存储数据对多个进程可见,
    每次写入共享内存中的内容 都会覆盖之前内容
    对内存的 读操作不会改变内存中的内容
    form multiprocessing import Value,Array
    shm = Value(ctype,obj)
        功能: 共享内存共享 空间
参数:
    ctype字符串  要转换的c语言的数据类型
    obj:共享内存的 初始数据
返回值:返回共享内存对象
    shm.value
        表示共享内存 的值

示例:

from  multiprocessing import Process,Value 
import time 
import random  

#创建共享内存
money = Value('i',6000)

#存钱
def deposite():
    for i in range(100):
        time.sleep(0.05)
        #对value的修改就是对共享内存的修改
        money.value += random.randint(1,200)
#花销
def withdraw():
    for i in range(100):
        time.sleep(0.04)
        #对value的修改就是对共享内存的修改
        money.value -= random.randint(1,200)

d = Process(target = deposite)
w = Process(target = withdraw)

d.start()
w.start()

d.join()
w.join()
print(money.value)




    shm = Array(ctype,obj)
        功能:
    开辟共享内存 空间
参数:
    ctype:要转换的数据类型
    obj:
        要存入共享内容的的数据( 结构化数据
列表、字符串 表示要存入得内容
要求 数据结构内类型相同
整数 表示开辟几个单元的空间
返回值:
    返回共享内存对象  可迭代对象

示例:

from multiprocessing import Process,Array
import time 

#创建共享内存
shm = Array('c',b"hello") #字符类型要求是bytes

#开辟5个整形单元的共享内存空间
# shm = Array('i',5)

def fun():
    for i in shm:
        print(i)
    shm[0] = b"H"

p = Process(target = fun)
p.start()
p.join()

print(shm.value) #从首地址打印字符串
# for i in shm:
#     print(i)






三种进程间通信区别:
                    管道通信:                           消息队列:                          共享内存:
开辟空间:     内存                                      内存                                    内存
读写方式: 两端读写                               先进先出                        每次覆盖上次内容
                  单向/双向 
效率:            一般                                     一般                                     较快
应用:   多用于父子进程                        应用灵活广泛                   复杂,需要同步互斥

 




相关文章
|
6天前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
17 2
|
13天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
57 6
|
22天前
|
网络协议 安全 5G
网络与通信原理
【10月更文挑战第14天】网络与通信原理涉及众多方面的知识,从信号处理到网络协议,从有线通信到无线通信,从差错控制到通信安全等。深入理解这些原理对于设计、构建和维护各种通信系统至关重要。随着技术的不断发展,网络与通信原理也在不断演进和完善,为我们的生活和工作带来了更多的便利和创新。
60 3
|
5天前
|
传感器 自动驾驶 物联网
探秘 5G 核心网络之 5G RAN:开启高速通信新时代
探秘 5G 核心网络之 5G RAN:开启高速通信新时代
26 4
|
2天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
15 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
6天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
21 3
|
11天前
|
存储 Unix Linux
进程间通信方式-----管道通信
【10月更文挑战第29天】管道通信是一种重要的进程间通信机制,它为进程间的数据传输和同步提供了一种简单有效的方法。通过合理地使用管道通信,可以实现不同进程之间的协作,提高系统的整体性能和效率。
|
11天前
|
消息中间件 存储 供应链
进程间通信方式-----消息队列通信
【10月更文挑战第29天】消息队列通信是一种强大而灵活的进程间通信机制,它通过异步通信、解耦和缓冲等特性,为分布式系统和多进程应用提供了高效的通信方式。在实际应用中,需要根据具体的需求和场景,合理地选择和使用消息队列,以充分发挥其优势,同时注意其可能带来的复杂性和性能开销等问题。
|
11天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。
|
14天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
39 4