我给这个Python库打101分!

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 日志在开发过程中是一种被很多程序员不重视,但是却至关重要的一项功能。

日志在开发过程中是一种被很多程序员不重视,但是却至关重要的一项功能。

我认为在一个系统的整个生命周期里,日志系统虽然工作量不大,但是论重要性程度能够占10%-15%的比重,或者更高。

优秀的日志管理,至少能够从3个方面提升系统:

  • 调试速度
  • 执行效率
  • 运维效率

很少有人敢确保一个系统开发完成之后不会出现任何问题,因此,在一个完善的商业化系统设计过程中,日志管理都会被视为一个重要模块。

日志输出、Kafka日志订阅、日志分析,完备的日志管理能够在系统出现问题时,维护人员需要明确4个问题:

  • 问题是什么?
  • 问题出在哪?
  • 什么时间出现的问题?
  • 为什么出现问题?

然后,快速定位、快速恢复系统正常运行。要清楚的是,系统正式上线之后,恢复系统时间每多耗费1分钟,它带来的资损和负面影响都是无法估量的。

50.jpg

而在Python中,提到日志管理每个大多数Python开发者都会脱口而出logging

logging是Python内置的标准库,也是使用频率较高的日志管理Python库,但是它有着一些明显的缺点:

  • 功能单一
  • 执行效率低
  • 需要手动配置

Python内置的标准logging库默认配置输出的日志内容非常简单,没有时间、位置这些在日志管理过程中至关重要的信息,每一次使用都需要自己手动配置一下,这样会带来冗余的代码和工作量。

为了解决这些问题,本文就来介绍一款可以很好替代标准logging库的第三方日志管理库--Eliot


Eliot


前面已经提到,一个优秀的日志管理系统至少要回答4个问题:

  • 问题是什么?
  • 问题出在哪?
  • 什么时间出现的问题?
  • 为什么出现问题?

但是,大多数日志库都不具备这样的功能。而本文介绍的Eliot恰好都能满足这些需求。

除了能够回答上述问题,告诉你问题是什么、问题出在哪、为什么出现问题,Eliot还具有很多其他特性:

  • 结构化输出日志信息,能够对输出一目了然
  • 可以用于解析和过滤日志
  • 不仅记录简单信息,还可以追踪程序的执行过程
  • 性能非常好,使用非堵塞IO
  • 可以结合Logstash/Elasticsearch使用

下面就来看一下Eliot的基本使用,更加丰富的功能,各位同学可以阅读一下文档仔细了解一下Eliot的使用。


安装


可以使用pip安装,

$ pip install eliot eliot-tree

也可以使用conda安装,

$ conda install -c conda-forge eliot eliot-tree

安装的eliot用于日志的生成、输出、分析等功能,eliot-tree可以实现以树结构可视化日志信息。


使用


首先给出一段示例代码,

import requests
from eliot import start_action, to_file
# 1. to_file
to_file(open("linkcheck.log", "w"))
def check_links(urls):
    with start_action(action_type="check_links", urls=urls):
        for url in urls:
            try:
                # 2. start_action
                with start_action(action_type="download", url=url):
                    response = requests.get(url)
                    response.raise_for_status()
            except Exception as e:
                raise ValueError(str(e))
try:
    check_links(["http://eliot.readthedocs.io", "http://nosuchurl"])
except ValueError:
    print("Not all links were valid.")

在这段代码中有2处用到了Eliot:

  1. to_file:用于指定输出日志文件;
  2. start_action:用于创建动作,如果动作成功则输出succeed ,否则抛出异常;

然后再命令行下执行代码:

$ python linkcheck.py

这时候会发现生成了一个名为linkcheck.log的日志文件。

但是,当用文本编辑器打开的时候会发现,日志的格式很单一、并没有树结构的信息。

如果想以树结构的方式可视化输出信息,就需要用到eliot-tree这个工具。

$ eliot-tree linkcheck.log
b1cb58cf-2c2f-45c0-92b2-838ac00b20cc
└── check_links/1 ⇒ started
    ├── timestamp: 2017-10-27 20:42:47.206684
    ├── urls:
    │   ├── 0: http://eliot.readthedocs.io
    │   └── 1: http://nosuchurl
    ├── download/2/1 ⇒ started
    │   ├── timestamp: 2017-10-27 20:42:47.206933
    │   ├── url: http://eliot.readthedocs.io
    │   └── download/2/2 ⇒ succeeded
    │       └── timestamp: 2017-10-27 20:42:47.439203
    ├── download/3/1 ⇒ started
    │   ├── timestamp: 2017-10-27 20:42:47.439412
    │   ├── url: http://nosuchurl
    │   └── download/3/2 ⇒ failed
    │       ├── errno: None
    │       ├── exception: requests.exceptions.ConnectionError
    │       ├── reason: HTTPConnectionPool(host='nosuchurl', port=80): Max retries exceeded with url: / (Caused by NewConnec…
    │       └── timestamp: 2017-10-27 20:42:47.457133
    └── check_links/4 ⇒ failed
        ├── exception: builtins.ValueError
        ├── reason: HTTPConnectionPool(host='nosuchurl', port=80): Max retries exceeded with url: / (Caused by NewConnec…
        └── timestamp: 2017-10-27 20:42:47.457332

在这个结构化的日志信息中,可以一目了然的看出3个方面的信息:

  • 哪些动作成功了,哪些动作失败了;
  • 失败的动作会记录异常
  • 日志追踪并记录了执行的详细动作

另外,执行每一步的详细时间戳也被记录在日志中。

除了在日志生成和输出增强日志管理之外,Eliot还在日志分析方面也提供了很不错的解决方案。

在以往,系统运行很长时间之后会产生大量的日志,通过肉眼逐行去看、或者手动搜索关键字的方式都不显示,从零开始开发一款日志分析系统耗费成本也较高。

Eliot针对日志分析加入了2项非常实用的功能:

  • 过滤
  • 解析

通过这2项功能,就不需要再去写一个复杂的逻辑去处理日志文件、解析对应的行和关键字。在Eliot中,只需要简短的代码就可以实现日志的定位和解析。除此之外,Eliot转为json输出而设计,可以结合Elasticsearch使用,简历搜索索引,能够通过自建的搜索引擎快速搜索到想要的日志信息。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
10天前
|
机器学习/深度学习 存储 数据挖掘
Python图像处理实用指南:PIL库的多样化应用
本文介绍Python中PIL库在图像处理中的多样化应用,涵盖裁剪、调整大小、旋转、模糊、锐化、亮度和对比度调整、翻转、压缩及添加滤镜等操作。通过具体代码示例,展示如何轻松实现这些功能,帮助读者掌握高效图像处理技术,适用于图片美化、数据分析及机器学习等领域。
49 20
|
1月前
|
XML JSON 数据库
Python的标准库
Python的标准库
173 77
|
2月前
|
调度 开发者 Python
Python中的异步编程:理解asyncio库
在Python的世界里,异步编程是一种高效处理I/O密集型任务的方法。本文将深入探讨Python的asyncio库,它是实现异步编程的核心。我们将从asyncio的基本概念出发,逐步解析事件循环、协程、任务和期货的概念,并通过实例展示如何使用asyncio来编写异步代码。不同于传统的同步编程,异步编程能够让程序在等待I/O操作完成时释放资源去处理其他任务,从而提高程序的整体效率和响应速度。
|
2月前
|
数据采集 存储 数据挖掘
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第27天】在数据分析领域,Python的Pandas库因其强大的数据处理能力而备受青睐。本文介绍了Pandas在数据导入、清洗、转换、聚合、时间序列分析和数据合并等方面的高效技巧,帮助数据分析师快速处理复杂数据集,提高工作效率。
106 0
|
2月前
|
机器学习/深度学习 算法 数据挖掘
数据分析的 10 个最佳 Python 库
数据分析的 10 个最佳 Python 库
135 4
数据分析的 10 个最佳 Python 库
|
1月前
|
XML JSON 数据库
Python的标准库
Python的标准库
56 11
|
2月前
|
人工智能 API 开发工具
aisuite:吴恩达发布开源Python库,一个接口调用多个大模型
吴恩达发布的开源Python库aisuite,提供了一个统一的接口来调用多个大型语言模型(LLM)服务。支持包括OpenAI、Anthropic、Azure等在内的11个模型平台,简化了多模型管理和测试的工作,促进了人工智能技术的应用和发展。
162 1
aisuite:吴恩达发布开源Python库,一个接口调用多个大模型
|
2月前
|
XML 存储 数据库
Python中的xmltodict库
xmltodict是Python中用于处理XML数据的强大库,可将XML数据与Python字典相互转换,适用于Web服务、配置文件读取及数据转换等场景。通过`parse`和`unparse`函数,轻松实现XML与字典间的转换,支持复杂结构和属性处理,并能有效管理错误。此外,还提供了实战案例,展示如何从XML配置文件中读取数据库连接信息并使用。
Python中的xmltodict库
|
1月前
|
数据可视化 Python
以下是一些常用的图表类型及其Python代码示例,使用Matplotlib和Seaborn库。
通过这些思维导图和分析说明表,您可以更直观地理解和选择适合的数据可视化图表类型,帮助更有效地展示和分析数据。
83 8
|
2月前
|
存储 人工智能 搜索推荐
Memoripy:支持 AI 应用上下文感知的记忆管理 Python 库
Memoripy 是一个 Python 库,用于管理 AI 应用中的上下文感知记忆,支持短期和长期存储,兼容 OpenAI 和 Ollama API。
125 6
Memoripy:支持 AI 应用上下文感知的记忆管理 Python 库