python:python的多进程

简介: python:python的多进程例子.

https://docs.python.org/3.6/library/multiprocessing.html#examples

从这里改造而来:


import time
from urllib import request
from multiprocessing import Process, Queue, current_process, freeze_support,cpu_count


def worker2(input, output):
    for func, args in iter(input.get, 'STOP'):
        result = nety(func, args)
        output.put(result)
def nety(func, args):
    result = func(args)
    return 'process: %s  done func:%s url:%s' % \
        (current_process().name, func.__name__, args)


def getUrl(url):
    res=request.urlopen(url)
    #return res.read().decode('UTF-8')
    return res


def test():
    NUMBER_OF_PROCESSES = cpu_count()*2
    urllist=['http://115.239.211.112/']*100
    TASKS3=[(getUrl, url) for url in urllist]

    # Create queues
    task_queue = Queue()
    done_queue = Queue()

    # Submit tasks
    '''
    for task in TASKS1:
        task_queue.put(task)
    '''
    for task in TASKS3:
        task_queue.put(task)
    # Start worker processes
    for i in range(NUMBER_OF_PROCESSES):
        Process(target=worker2, args=(task_queue, done_queue)).start()

    # Get and print results
    print('Unordered results:')
    for i in range(len(TASKS3)):
        print('\t', done_queue.get())
        
    # Tell child processes to stop
    for i in range(NUMBER_OF_PROCESSES):
        task_queue.put('STOP')


if __name__ == '__main__':
    freeze_support()
    startTime=time.time()
    test()
    endTime=time.time()
    print(endTime-startTime)



改进版本:



import time
from urllib import request
from multiprocessing import Process, Queue, current_process,cpu_count,freeze_support
import os

def worker2(queueIn, queueOut):
    for func, args in iter(queueIn.get, 'STOP'):
        result = netty(func, args)
        queueOut.put(result)


def netty(func, args):
    result = func(args)
    #return ('process: %s  done func:%s url:%s' % (current_process().name, func.__name__, args),result)
    return (args, result) #返回传入的参数和输出的结果

def getUrl(url):
    res=request.urlopen(url)
    #return res.read().decode('UTF-8')
    return res.read()


def test():
    NUMBER_OF_PROCESSES = cpu_count()*1
    #urllist=['http://192.168.199.119:8080/']*10
    urllist = []
    urlFileName = 'urls\\urls.txt'
    with open(urlFileName,'r') as f:
        for line in f.readlines():
            urllist.append(line.replace('\n',''))
    urllist = urllist*5



    TASKS3 = [(getUrl, url) for url in urllist]

    # Create queues
    task_queue = Queue()
    done_queue = Queue()

    # Submit tasks
    for task in TASKS3:
        task_queue.put(task)
    # Start worker processes
    for i in range(NUMBER_OF_PROCESSES):
        Process(target=worker2, args=(task_queue, done_queue)).start()

    # Get and print results
    print('Unordered results:')
    for i in range(len(TASKS3)):
        # print(done_queue.get())
        res=done_queue.get()
        url=res[0]
        data=res[1]
        #fileName = 'DATA\\'+url[7:].replace('/', '').replace(':', '_')+'_'+str(i)+'.txt'
        #fileName='DATA\\'+'data'+str(i)+'.data'
        fileName='DATA\\'+os.path.basename(url).replace('?','_')+'_'+str(i)+'.data'
        with open(fileName,'wb') as f:
            f.write(data)
    # Tell child processes to stop
    for i in range(NUMBER_OF_PROCESSES):
        task_queue.put('STOP')


if __name__ == '__main__':
    freeze_support()
    startTime = time.time()
    test()
    endTime = time.time()
    print(endTime-startTime)


目录
相关文章
|
2月前
|
并行计算 数据处理 调度
Python中的并发编程:探索多线程与多进程的奥秘####
本文深入探讨了Python中并发编程的两种主要方式——多线程与多进程,通过对比分析它们的工作原理、适用场景及性能差异,揭示了在不同应用需求下如何合理选择并发模型。文章首先简述了并发编程的基本概念,随后详细阐述了Python中多线程与多进程的实现机制,包括GIL(全局解释器锁)对多线程的影响以及多进程的独立内存空间特性。最后,通过实例演示了如何在Python项目中有效利用多线程和多进程提升程序性能。 ####
|
2月前
|
调度 iOS开发 MacOS
python多进程一文够了!!!
本文介绍了高效编程中的多任务原理及其在Python中的实现。主要内容包括多任务的概念、单核和多核CPU的多任务实现、并发与并行的区别、多任务的实现方式(多进程、多线程、协程等)。详细讲解了进程的概念、使用方法、全局变量在多个子进程中的共享问题、启动大量子进程的方法、进程间通信(队列、字典、列表共享)、生产者消费者模型的实现,以及一个实际案例——抓取斗图网站的图片。通过这些内容,读者可以深入理解多任务编程的原理和实践技巧。
113 1
|
3月前
|
Python
Python中的多线程与多进程
本文将探讨Python中多线程和多进程的基本概念、使用场景以及实现方式。通过对比分析,我们将了解何时使用多线程或多进程更为合适,并提供一些实用的代码示例来帮助读者更好地理解这两种并发编程技术。
|
2月前
|
监控 JavaScript 前端开发
python中的线程和进程(一文带你了解)
欢迎来到瑞雨溪的博客,这里是一位热爱JavaScript和Vue的大一学生分享技术心得的地方。如果你从我的文章中有所收获,欢迎关注我,我将持续更新更多优质内容,你的支持是我前进的动力!🎉🎉🎉
30 0
|
3月前
|
数据挖掘 程序员 调度
探索Python的并发编程:线程与进程的实战应用
【10月更文挑战第4天】 本文深入探讨了Python中实现并发编程的两种主要方式——线程和进程,通过对比分析它们的特点、适用场景以及在实际编程中的应用,为读者提供清晰的指导。同时,文章还介绍了一些高级并发模型如协程,并给出了性能优化的建议。
43 3
|
4月前
|
负载均衡 Java 调度
探索Python的并发编程:线程与进程的比较与应用
本文旨在深入探讨Python中的并发编程,重点比较线程与进程的异同、适用场景及实现方法。通过分析GIL对线程并发的影响,以及进程间通信的成本,我们将揭示何时选择线程或进程更为合理。同时,文章将提供实用的代码示例,帮助读者更好地理解并运用这些概念,以提升多任务处理的效率和性能。
71 3
|
3月前
|
存储 Python
Python中的多进程通信实践指南
Python中的多进程通信实践指南
36 0
|
4月前
|
监控 Ubuntu API
Python脚本监控Ubuntu系统进程内存的实现方式
通过这种方法,我们可以很容易地监控Ubuntu系统中进程的内存使用情况,对于性能分析和资源管理具有很大的帮助。这只是 `psutil`库功能的冰山一角,`psutil`还能够提供更多关于系统和进程的详细信息,强烈推荐进一步探索这个强大的库。
58 1
|
4月前
|
Python
惊!Python进程间通信IPC,让你的程序秒变社交达人,信息畅通无阻
【9月更文挑战第13天】在编程的世界中,进程间通信(IPC)如同一场精彩的社交舞会,每个进程通过优雅的IPC机制交换信息,协同工作。本文将带你探索Python中的IPC奥秘,了解它是如何让程序实现无缝信息交流的。IPC如同隐形桥梁,连接各进程,使其跨越边界自由沟通。Python提供了多种IPC机制,如管道、队列、共享内存及套接字,适用于不同场景。通过一个简单的队列示例,我们将展示如何使用`multiprocessing.Queue`实现进程间通信,使程序如同社交达人般高效互动。掌握IPC,让你的程序在编程舞台上大放异彩。
32 3
|
3月前
|
数据采集 消息中间件 Python
Python爬虫-进程间通信
Python爬虫-进程间通信
24 0