如何使用python分析CPU使用情况? 大概是这样吧

简介: 前言现在小编给大家分享一个可以分析CPU使用情况的代码,CPU分析是通过分享CPU执行代码的方式来测量代码的性能,以此来找到代码的不妥之处,然后处理它们,接下来我们将看看如何跟踪python脚本使用时CPU使用情况,重点关注几个方面 :1、cProfile2、line_profiler3、...

前言
现在小编给大家分享一个可以分析CPU使用情况的代码,CPU分析是通过分享CPU执行代码的方式来测量代码的性能,以此来找到代码的不妥之处,然后处理它们,

接下来我们将看看如何跟踪python脚本使用时CPU使用情况,重点关注几个方面 :

1、cProfile

2、line_profiler

3、pprofile

4、vprof

测量CPU使用率,主要使用与内存分析中使用脚本相同的脚本,具体如下:

import time

def primes(n):
      if n == 2 :
        return [2]
     elif n < 2:
        return []
     s = []
  for i in range(3,n+1) :
      if i % 2 !=0 :
        s.append(i)
  mroot = n ** 0.5
  half = (n+1) / 2 - 1
  i = 0
 m = 3
while  m <= mroot :
if s[i]:
    j = (m * m - 3)  / 2
    s[j] = 0
    while j < half :
     s[j] = 0
      j += m
i =  i + 1
m = 2 * i + 3
l  = [2]
 for x in s :
if x:
l.append(x)
return l 

def benckmark():
start = time.time()
for _ in xrange(40):
    count = len(primes(1000000))
end = time.time()
print "Benchmark   duration : %r secounds" % (end - start)

另外,请记住,在PyPy2中,你需要使用与之配合的pip版本:

并且其他依赖项也将被安装:

cProfile

在讨论CPU分析时,最常用的工具之一是cProfile,主要是因为它内置在CPython2和PyPy2中。这是一个确定性的分析器,意味着在运行程序时会收集一组统计数据,例如我们代码的各个部分的执行次数或执行时间。此外,cProfile在系统上的开销比其他内置的分析器(配置文件)要低。

CPython2的用法很简单:

如果你使用PyPy2:

其输出如下:

即使使用这个文本输出,很容易看到我们的脚本多次调用了list.append方法。

如果我们使用gprof2dot,我们可以以图形的方式看到cProfile输出。要使用它,我们必须首先安装graphviz,之后是一些依赖包,最后在Ubuntu上使用如下命令:

再次运行脚本:

我们得到以下output.png文件:

学习从来不是一个人的事情,要有个相互监督的伙伴,工作需要学习python或者有兴趣学习python的伙伴可以私信回复小编“学习”或者评论,留言,点赞 领取全套免费python学习资料、视频()装包

这样更容易看到一切。我们来仔细看看它的输出。你可以看到脚本中的函数调用如下:

第一行:Python文件名,行号和方法名称

第二行:代码块占用全部时间的百分比

第三行:括号中,方法本身占全部时间的百分比

第四行:调用函数的次数

例如,在顶部的第三个红色方块中,方法primes占用了98.28%的时间,其中65.44%的内容在其中进行,调用了40次。其余的时间花在Python中的list.append(22.33%)和range(11.51%)中。

作为一个简单的脚本,我们只需要重写我们的脚本,具体的如下所示:

如果我们使用CPython2测量我们脚本的时间,

还有PyPy2:

我们通过使用PyPy2的CPython2和3.1X获得了不错的效果,下面是cProfile的调用流程图:
image
你还可以以编程方式使用cProfile,例如:

这在某些情况下很有用,例如多进程性能测量。

line_profiler

此分析器在行级提供关于工作负载的信息。它使用Cython在C中实现,并将其与cProfile进行比较时发现其具有较小的开销。

源代码可以在这里找到,也可以在这里找到PyPI页面。与cProfile相比,它具有一样的开销,不过却要花费12倍的时间来获取配置文件。

要使用它,你需要先通过pip添加它:pip install pip install Cython ipython == 5.4.1 line_profiler(CPython2)。这个分析器的一个主要缺点是它不支持PyPy。

就像使用memory_profiler一样,你需要在要分析的函数中添加一个装饰器。在我们的例子中,你需要在03.primes-v1.py中定义我们的primes函数之前添加@profile。然后调用它:

你将得到如下输出:

我们看到,重复调用list.append的两个循环花了最多的时间。

pprofile

根据作者说明,pprofile是一个“线程测量和统计的纯python分析器”。

它受到line_profiler的启发,修复了很多缺点,但是由于它完全用Python编写,所以它也可以与PyPy成功使用。与cProfile相比,使用CPython时的分析时间要多28倍,而使用PyPy时,分析时间要多10倍,而且细节水平更加细化。

我们也支持PyPy!除此之外,它支持剖析线程,这在各种情况下可能会很方便。

要使用它,你需要先通过pip添加它:pip install pprofile(CPython2)/ pypy -m pip install pprofile(PyPy),然后调用它:

输出与我们以前看到的不同,我们得到如下结果:

我们现在可以更详细地看到一切。让我们来看看输出。你可以获得脚本的整个输出,并且在每行之前,你可以看到对其进行的调用次数,运行时间(秒),每次调用的时间和全局时间的百分比,pprofile为我们的输出添加了额外的行(如第44和50行,以(call)开头)与累积指标。
再次,我们看到,重复调用list.append的两个循环花了我们脚本中最多的时间。

vprof

vprof是一个Python分析器,为各种Python程序特性(如运行时间和内存使用)提供丰富的交互式可视化。它是一个基于Node.JS的图形化的显示在网页中的结果。

使用它,你可以看到与Python脚本相关的以下一个或全部:

1、CPU使用图

2、代码分析

3、内存图

4、代码热图

要使用它,你需要先通过pip添加它:pip install vprof(CPython2)/ pypy -m pip install vprof(PyPy),然后调用它:

在CPython2上,显示代码散热图(第一个调用如下)和代码分析(下面的第二个调用):

在PyPy上,显示代码散热图(第一个调用如下)和代码分析(下面的第二个调用):

在每种情况下,你将看到代码散点图的以下内容

以及代码分析的以下内容。

结果以图形方式看到,我们可以悬停鼠标或单击每行以获取更多信息。再次,我们看到,重复调用list.append的两个循环花了我们脚本中最多的时间。

相关文章
|
25天前
|
缓存 Rust 算法
从混沌到秩序:Python的依赖管理工具分析
Python 的依赖管理工具一直没有标准化,主要原因包括历史发展的随意性、社区的分散性、多样化的使用场景、向后兼容性的挑战、缺乏统一治理以及生态系统的快速变化。依赖管理工具用于处理项目中的依赖关系,确保不同环境下的依赖项一致性,避免软件故障和兼容性问题。常用的 Python 依赖管理工具如 pip、venv、pip-tools、Pipenv、Poetry 等各有优缺点,选择时需根据项目需求权衡。新工具如 uv 和 Pixi 在性能和功能上有所改进,值得考虑。
83 35
|
2月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品消费模式分析的深度学习模型
使用Python实现智能食品消费模式分析的深度学习模型
154 70
|
1月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
在现代数据分析中,高维时间序列数据的处理和预测极具挑战性。基于矩阵分解的长期事件(MFLEs)分析技术应运而生,通过降维和时间序列特性结合,有效应对大规模数据。MFLE利用矩阵分解提取潜在特征,降低计算复杂度,过滤噪声,并发现主要模式。相比传统方法如ARIMA和深度学习模型如LSTM,MFLE在多变量处理、计算效率和可解释性上更具优势。通过合理应用MFLE,可在物联网、金融等领域获得良好分析效果。
61 0
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
|
26天前
|
数据采集 数据可视化 数据挖掘
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
本文探讨了金融资产波动率建模中的三种主流方法:GARCH、GJR-GARCH和HAR模型,基于SPY的实际交易数据进行实证分析。GARCH模型捕捉波动率聚类特征,GJR-GARCH引入杠杆效应,HAR整合多时间尺度波动率信息。通过Python实现模型估计与性能比较,展示了各模型在风险管理、衍生品定价等领域的应用优势。
234 66
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
|
3月前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
16天前
|
并行计算 安全 Java
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
在Python开发中,GIL(全局解释器锁)一直备受关注。本文基于CPython解释器,探讨GIL的技术本质及其对程序性能的影响。GIL确保同一时刻只有一个线程执行代码,以保护内存管理的安全性,但也限制了多线程并行计算的效率。文章分析了GIL的必要性、局限性,并介绍了多进程、异步编程等替代方案。尽管Python 3.13计划移除GIL,但该特性至少要到2028年才会默认禁用,因此理解GIL仍至关重要。
85 16
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
|
1月前
|
数据可视化 算法 数据挖掘
Python时间序列分析工具Aeon使用指南
**Aeon** 是一个遵循 scikit-learn API 风格的开源 Python 库,专注于时间序列处理。它提供了分类、回归、聚类、预测建模和数据预处理等功能模块,支持多种算法和自定义距离度量。Aeon 活跃开发并持续更新至2024年,与 pandas 1.4.0 版本兼容,内置可视化工具,适合数据探索和基础分析任务。尽管在高级功能和性能优化方面有提升空间,但其简洁的 API 和完整的基础功能使其成为时间序列分析的有效工具。
79 37
Python时间序列分析工具Aeon使用指南
|
1月前
|
机器学习/深度学习 运维 数据可视化
Python时间序列分析:使用TSFresh进行自动化特征提取
TSFresh 是一个专门用于时间序列数据特征自动提取的框架,支持分类、回归和异常检测等机器学习任务。它通过自动化特征工程流程,处理数百个统计特征(如均值、方差、自相关性等),并通过假设检验筛选显著特征,提升分析效率。TSFresh 支持单变量和多变量时间序列数据,能够与 scikit-learn 等库无缝集成,适用于大规模时间序列数据的特征提取与模型训练。其工作流程包括数据格式转换、特征提取和选择,并提供可视化工具帮助理解特征分布及与目标变量的关系。
69 16
Python时间序列分析:使用TSFresh进行自动化特征提取
|
2月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品消费习惯分析的深度学习模型
使用Python实现智能食品消费习惯分析的深度学习模型
178 68
|
30天前
|
数据采集 缓存 API
python爬取Boss直聘,分析北京招聘市场
本文介绍了如何使用Python爬虫技术从Boss直聘平台上获取深圳地区的招聘数据,并进行数据分析,以帮助求职者更好地了解市场动态和职位需求。

热门文章

最新文章