Python学习,多进程了解一下!学爬虫不会用多进程能行吗?

简介: python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。

python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。Python提供了非常好用的多进程包multiprocessing,只需要定义一个函数,Python会完成其他所有事情。借助这个包,可以轻松完成从单进程到 并发执行的转换

本来想写多线程的,但是演示效果并不是很好,就改成进程了。

其实多进程没有我们想象的那么难,用几个小例子给大家分享一下!

目录

  • 多进程的多种实现方法及效果演示:这段将通过几个小脚本实现多进程的效果
  • 一个小爬虫实例,通过运行时间来查看进程对代码速度的影响

多进程

首先我们先做一个小脚本,就用turtle画4个同心圆吧!这样在演示多进程的时候比较直观。代码如下:

import turtle

def cir(n,m):
    turtle.penup()
    turtle.goto(n)
    turtle.pendown()
    turtle.circle(m)
    time.sleep(1)
def runn(lis1,lis2):
    for n, m in zip(lis1,lis2):
        cir(n,m)
if __name__ == '__main__':
    nn = [(0,-200),(0,-150),(0,-100),(0,-50)]
    mm = [200,150,100,50]
    runn(nn,mm)

这段代码,实现了画4个同心圆的效果,如果用多进程的话,我们稍微该写一下,将runn()函数替换下面的代码

from multiprocessing import Process,Pool

for i in range(4):
    Process(target=runn,args=(nn,mm)).start()

这里,启动4个进程,同时画圆,给个图大家感受一下!

可以看到,这里直接生成4个画板同时画同心圆。如果还要在加进程的话,可以用pool进程池,注意pool有2个方法,建议用非阻塞的p.apply_async不要用阻塞的p.apply方法,p.apply_async会由系统自行判断并运行,比如指定4个进程运行5个任务,那么会在某一个进程运行完毕的同时自动开始第5个任务,而阻塞的p.apply方法会一次只运行一个进程。

然后就是记得close()进程池,并用p.join()等待所有进程完成!相关代码如下

    p = Pool(9)
    for i in range(9):
        p.apply_async(runn,(nn,mm))#非阻塞
        #p.apply(runn,(nn,mm))#阻塞
    p.close()
    p.join()

Pool()里面不带参数会自动适应电脑本身内核数量,这里我设置9个进程同时进行!来看看效果

可以看到,同时进行了9个画图的进程,但是同样的,有明显的卡顿感!当然,我们也可以用map函数来写多进程,先修改下代码

def cir(m):
    turtle.penup()
    turtle.goto(m[0])
    turtle.pendown()
    turtle.circle(m[1])
    time.sleep(14)
if __name__ == '__main__':
    nn = [(0, -200), (0, -150), (0, -100), (0, -50)]
    mm = [200, 150, 100, 50]
    mn = [(x,y) for x,y in zip(nn,mm)]
    p = Pool(3)
    p.map(cir,mn)

这次不画4个同心圆了,我们让它4个进程各画一个圆,来看看效果

为了演示效果,多加了点间隔时间,并把cir函数的参数改为1个,这样便于生成元组列表!可以看到,有了明显的卡顿,电脑不好,大家看看效果就行了

写个简单的多进程爬虫

做一个小爬虫,加入运行时间,先上一个不使用进程的代码:

import requests
from lxml import etree
import time
from multiprocessing import Process,Pool

def main(url):
    time.sleep(1)
    html = requests.get(url)
    html.encoding = 'gb2312'
    data = etree.HTML(html.text)
    title = data.xpath('//a[@class="ulink"]/text()')
    summary = data.xpath('//td[@colspan="2"]/text()')
    urls = data.xpath('//a[@class="ulink"]/@href')
    for t,s,u in zip(title,summary,urls):
        print(t)
        print('【url:】http://www.dytt8.net'+u)
        print('【简介】>>>>>>>'+s)

if __name__ == '__main__':
    start = time.time()
    url = 'http://www.dytt8.net/html/gndy/dyzz/'
    pg_url = [url+'list_23_{}.html'.format(str(x)) for x in range(1,10)]
    for pg_u in pg_url:
        main(pg_u)
    end = time.time()
    print("共计用时%.4f秒"%(end-start))

在修改下多进程,直接修改最后几行行代码即可

    pg_url = [url+'list_23_{}.html'.format(str(x)) for x in range(1,10)]
    # for pg_u in pg_url:
    #   main(pg_u)
    p=Pool()
    p.map(main,pg_url)
    end = time.time()
    print("共计用时%.4f秒"%(end-start))

可以看到,速度提高了1倍多,当然,并不是说只能提高一倍,而是我的代码太简单了,只是从网站抓取字符串打印出来,响应速度很快,导致提升的倍率并没有我们想象的那么高,如果大家有兴趣,可以尝试一下,基本上可以提升到进程数的倍率,也就是说,不超过电脑核心数量,且没有其他外因(比如网络响应速度等等)的情况下,用4进程可以提升接近4倍的速度!

后记

在学习的过程中,难免会遇到很高深并且很难理解的知识点,我们可以先尝试去简化理解它,比如多进程,它本身还有进程池、进程间通讯、守护进程、进程类(重写run方法)、进程锁、进程队列、管道、信号量等等功能或知识点,这里都没有涉及,不过这并不影响我们使用简单的多进程写代码!

相关文章
|
1天前
|
数据采集 存储 数据挖掘
深入探索 Python 爬虫:高级技术与实战应用
本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。
103 66
|
11天前
|
负载均衡 Java 调度
探索Python的并发编程:线程与进程的比较与应用
本文旨在深入探讨Python中的并发编程,重点比较线程与进程的异同、适用场景及实现方法。通过分析GIL对线程并发的影响,以及进程间通信的成本,我们将揭示何时选择线程或进程更为合理。同时,文章将提供实用的代码示例,帮助读者更好地理解并运用这些概念,以提升多任务处理的效率和性能。
|
18天前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
在网络数据的海洋中,网络爬虫遵循HTTP协议,穿梭于互联网各处,收集宝贵信息。本文将从零开始,使用Python的requests库,深入解析HTTP协议,助你构建自己的网络爬虫帝国。首先介绍HTTP协议基础,包括请求与响应结构;然后详细介绍requests库的安装与使用,演示如何发送GET和POST请求并处理响应;最后概述爬虫构建流程及挑战,帮助你逐步掌握核心技术,畅游数据海洋。
48 3
|
24天前
|
消息中间件 安全 Kafka
Python IPC机制全攻略:让进程间通信变得像呼吸一样自然
【9月更文挑战第12天】在编程领域,进程间通信(IPC)是连接独立执行单元的关键技术。Python凭借简洁的语法和丰富的库支持,提供了多种IPC方案。本文将对比探讨Python的IPC机制,包括管道与消息队列、套接字与共享内存。管道适用于简单场景,而消息队列更灵活,适合高并发环境。套接字广泛用于网络通信,共享内存则在本地高效传输数据。通过示例代码展示`multiprocessing.Queue`的使用,帮助读者理解IPC的实际应用。希望本文能让你更熟练地选择和运用IPC机制。
38 10
|
18天前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
在网络的广阔世界里,Python凭借其简洁的语法和强大的库支持,成为开发网络爬虫的首选语言。本文将通过实战案例,带你探索urllib和requests两大神器的魅力。urllib作为Python内置库,虽API稍显繁琐,但有助于理解HTTP请求本质;requests则简化了请求流程,使开发者更专注于业务逻辑。从基本的网页内容抓取到处理Cookies与Session,我们将逐一剖析,助你从爬虫新手成长为高手。
41 1
|
20天前
|
监控 Ubuntu API
Python脚本监控Ubuntu系统进程内存的实现方式
通过这种方法,我们可以很容易地监控Ubuntu系统中进程的内存使用情况,对于性能分析和资源管理具有很大的帮助。这只是 `psutil`库功能的冰山一角,`psutil`还能够提供更多关于系统和进程的详细信息,强烈推荐进一步探索这个强大的库。
29 1
|
23天前
|
Python
惊!Python进程间通信IPC,让你的程序秒变社交达人,信息畅通无阻
【9月更文挑战第13天】在编程的世界中,进程间通信(IPC)如同一场精彩的社交舞会,每个进程通过优雅的IPC机制交换信息,协同工作。本文将带你探索Python中的IPC奥秘,了解它是如何让程序实现无缝信息交流的。IPC如同隐形桥梁,连接各进程,使其跨越边界自由沟通。Python提供了多种IPC机制,如管道、队列、共享内存及套接字,适用于不同场景。通过一个简单的队列示例,我们将展示如何使用`multiprocessing.Queue`实现进程间通信,使程序如同社交达人般高效互动。掌握IPC,让你的程序在编程舞台上大放异彩。
15 3
|
6天前
|
数据采集 Linux 调度
Python之多线程与多进程
Python之多线程与多进程
12 0
|
9天前
|
数据采集 Java
爬虫系统学习
爬虫系统学习
|
9天前
|
数据采集
爬虫之bs4学习
爬虫之bs4学习
下一篇
无影云桌面