3个实例帮你理解Python中的线程

简介: 我们将会看到一些在Python中使用线程的实例和如何避免线程之间的竞争。你应当将下边的例子运行多次,以便可以注意到线程是不可预测的和线程每次运行出的不同结果。声明:从这里开始忘掉你听到过的关于GIL的东西,因为GIL不会影响到我想要展示的东西。

我们将会看到一些在Python中使用线程的实例和如何避免线程之间的竞争。

你应当将下边的例子运行多次,以便可以注意到线程是不可预测的和线程每次运行出的不同结果。

声明:从这里开始忘掉你听到过的关于GIL的东西,因为GIL不会影响到我想要展示的东西。


实例1

我们将要请求五个不同的url:


单线程

import time  

import urllib2  

def get_responses():  

 urls = [  

     'http://www.google.com',  

     'http://www.amazon.com',  

     'http://www.ebay.com',  

     'http://www.alibaba.com',  

     'http://www.reddit.com'  

 ]  

 start = time.time()  

 for url in urls:  

     print url  

     resp = urllib2.urlopen(url)  

     print resp.getcode()  

 print"Elapsed time: %s" % (time.time()-start)  

get_responses()  

输出:

http://www.google.com 200  

http://www.amazon.com 200  

http://www.ebay.com 200  

http://www.alibaba.com 200  

http://www.reddit.com 200  

Elapsed time: 3.0814409256

解释:

  • url顺序的被请求
  • 除非cpu从一个url获得了回应,否则不会去请求下一个url
  • 网络请求会花费较长的时间,所以cpu在等待网络请求的返回时间内一直处于闲置状态。

多线程

import urllib2  

import time  

from threading import Thread  

classGetUrlThread(Thread):  

 def __init__(self, url):  

     self.url = url  

     super(GetUrlThread, self).__init__()  

 def run(self):  

     resp = urllib2.urlopen(self.url)  

     print self.url, resp.getcode()  

def get_responses():  

 urls = [  

     'http://www.google.com',  

     'http://www.amazon.com',  

     'http://www.ebay.com',  

     'http://www.alibaba.com',  

     'http://www.reddit.com'  

 ]  

 start = time.time()  

 threads = []  

 for url in urls:  

     t = GetUrlThread(url)  

     threads.append(t)  

     t.start()  

 for t in threads:  

     t.join()  

 print "Elapsed time: %s" % (time.time()-start)  

get_responses()  

输出:

http://www.reddit.com 200  

http://www.google.com 200  

http://www.amazon.com 200  

http://www.alibaba.com 200  

http://www.ebay.com 200  

Elapsed time: 0.689890861511

解释:

  • 意识到了程序在执行时间上的提升
  • 我们写了一个多线程程序来减少cpu的等待时间,当我们在等待一个线程内的网络请求返回时,这时cpu可以切换到其他线程去进行其他线程内的网络请求。
  • 我们期望一个线程处理一个url,所以实例化线程类的时候我们传了一个url。
  • 线程运行意味着执行类里的run()方法。
  • 无论如何我们想每个线程必须执行run()。
  • 为每个url创建一个线程并且调用start()方法,这告诉了cpu可以执行线程中的run()方法了。
  • 我们希望所有的线程执行完毕的时候再计算花费的时间,所以调用了join()方法。
  • join()可以通知主线程等待这个线程结束后,才可以执行下一条指令。
  • 每个线程我们都调用了join()方法,所以我们是在所有线程执行完毕后计算的运行时间。

关于线程:

  • cpu可能不会在调用start()后马上执行run()方法。
  • 你不能确定run()在不同线程建间的执行顺序。
  • 对于单独的一个线程,可以保证run()方法里的语句是按照顺序执行的。
  • 这就是因为线程内的url会首先被请求,然后打印出返回的结果。

实例2

我们将会用一个程序演示一下多线程间的资源竞争,并修复这个问题。

from threading import Thread  

#define a global variable  

some_var = 0  

class IncrementThread(Thread):  

 def run(self):  

     #we want to read a global variable  

     #and then increment it  

     global some_var  

     read_value = some_var  

     print "some_var in %s is %d"% (self.name, read_value)  

     some_var = read_value + 1  

     print "some_var in %s after increment is %d"% (self.name, some_var)  

def use_increment_thread():  

 threads = []  

 for i in range(50):  

     t = IncrementThread()  

     threads.append(t)  

     t.start()  

 for t in threads:  

     t.join()  

 print "After 50 modifications, some_var should have become 50"  

 print "After 50 modifications, some_var is %d"% (some_var,)  

use_increment_thread()  

多次运行这个程序,你会看到多种不同的结果。

解释:

  • 有一个全局变量,所有的线程都想修改它。
  • 所有的线程应该在这个全局变量上加 1 。
  • 有50个线程,最后这个数值应该变成50,但是它却没有。

为什么没有达到50?

  • 在some_var是15的时候,线程t1读取了some_var,这个时刻cpu将控制权给了另一个线程t2。
  • t2线程读到的some_var也是15
  • t1和t2都把some_var加到16
  • 当时我们期望的是t1、t2两个线程使some_var + 2变成17
  • 在这里就有了资源竞争。
  • 相同的情况也可能发生在其它的线程间,所以出现了最后的结果小于50的情况。


解决资源竞争

from threading import Lock, Thread  

lock = Lock()  

some_var = 0  

class IncrementThread(Thread):  

 def run(self):  

     #we want to read a global variable  

     #and then increment it  

     global some_var  

     lock.acquire()  

     read_value = some_var  

     print "some_var in %s is %d"% (self.name, read_value)  

     some_var = read_value + 1  

     print "some_var in %s after increment is %d"% (self.name, some_var)  

     lock.release()  

def use_increment_thread():  

 threads = []  

 for i in range(50):  

     t = IncrementThread()  

     threads.append(t)  

     t.start()  

 for t in threads:  

     t.join()  

 print "After 50 modifications, some_var should have become 50"  

 print "After 50 modifications, some_var is %d"% (some_var,)  

use_increment_thread()  

再次运行这个程序,达到了我们预期的结果。

解释:

  • Lock 用来防止竞争条件
  • 如果在执行一些操作之前,线程t1获得了锁。其他的线程在t1释放Lock之前,不会执行相同的操作
  • 我们想要确定的是一旦线程t1已经读取了some_var,直到t1完成了修改some_var,其他的线程才可以读取some_var
  • 这样读取和修改some_var成了逻辑上的原子操作。

实例3

让我们用一个例子来证明一个线程不能影响其他线程内的变量(非全局变量)。

time.sleep()可以使一个线程挂起,强制线程切换发生。

from threading import Thread  

import time  

classCreateListThread(Thread):  

 def run(self):  

     self.entries = []  

     for i in range(10):  

         time.sleep(1)  

         self.entries.append(i)  

     print self.entries  

def use_create_list_thread():  

 for i in range(3):  

     t = CreateListThread()  

     t.start()  

use_create_list_thread()

运行几次后发现并没有打印出争取的结果。当一个线程正在打印的时候,cpu切换到了另一个线程,所以产生了不正确的结果。我们需要确保print self.entries是个逻辑上的原子操作,以防打印时被其他线程打断。

我们使用了Lock(),来看下边的例子。

from threading import Thread, Lock  

import time  

lock = Lock()  

classCreateListThread(Thread):  

 def run(self):  

     self.entries = []  

     for i in range(10):  

         time.sleep(1)  

         self.entries.append(i)  

     lock.acquire()  

     print self.entries  

     lock.release()  

def use_create_list_thread():  

 for i in range(3):  

     t = CreateListThread()  

     t.start()  

use_create_list_thread()

这次我们看到了正确的结果。证明了一个线程不可以修改其他线程内部的变量(非全局变量)。

相关文章
|
7月前
|
数据采集 存储 JSON
Python爬取知乎评论:多线程与异步爬虫的性能优化
Python爬取知乎评论:多线程与异步爬虫的性能优化
|
7月前
|
人工智能 安全 调度
Python并发编程之线程同步详解
并发编程在Python中至关重要,线程同步确保多线程程序正确运行。本文详解线程同步机制,包括互斥锁、信号量、事件、条件变量和队列,探讨全局解释器锁(GIL)的影响及解决线程同步问题的最佳实践,如避免全局变量、使用线程安全数据结构、精细化锁的使用等。通过示例代码帮助开发者理解并提升多线程程序的性能与可靠性。
250 0
|
4月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
453 0
|
6月前
|
数据采集 消息中间件 并行计算
Python多线程与多进程性能对比:从原理到实战的深度解析
在Python编程中,多线程与多进程是提升并发性能的关键手段。本文通过实验数据、代码示例和通俗比喻,深入解析两者在不同任务类型下的性能表现,帮助开发者科学选择并发策略,优化程序效率。
527 1
|
8月前
|
JSON 算法 Java
打造终端里的下载利器:Python实现可恢复式多线程下载器
在数字时代,大文件下载已成为日常需求。本文教你用Python打造专业级下载器,支持断点续传、多线程加速、速度限制等功能,显著提升终端下载体验。内容涵盖智能续传、多线程分块下载、限速控制及Rich库构建现代终端界面,助你从零构建高效下载工具。
542 1
|
7月前
|
数据采集 监控 调度
干货分享“用 多线程 爬取数据”:单线程 + 协程的效率反超 3 倍,这才是 Python 异步的正确打开方式
在 Python 爬虫中,多线程因 GIL 和切换开销效率低下,而协程通过用户态调度实现高并发,大幅提升爬取效率。本文详解协程原理、实战对比多线程性能,并提供最佳实践,助你掌握异步爬虫核心技术。
|
7月前
|
数据采集 存储 Java
多线程Python爬虫:加速大规模学术文献采集
多线程Python爬虫:加速大规模学术文献采集
|
9月前
|
算法 Python
Apriori算法的Python实例演示
经过运行,你会看到一些集合出现,每个集合的支持度也会给出。这些集合就是你想要的,经常一起被购买的商品组合。不要忘记,`min_support`参数将决定频繁项集的数量和大小,你可以根据自己的需要进行更改。
368 18
|
8月前
|
数据采集 网络协议 前端开发
Python多线程爬虫模板:从原理到实战的完整指南
多线程爬虫通过并发请求大幅提升数据采集效率,适用于大规模网页抓取。本文详解其原理与实现,涵盖任务队列、线程池、会话保持、异常处理、反爬对抗等核心技术,并提供可扩展的Python模板代码,助力高效稳定的数据采集实践。
412 0

热门文章

最新文章

推荐镜像

更多