日志系列--程序日志处理挑战与方案

本文涉及的产品
对象存储 OSS,20GB 3个月
文件存储 NAS,50GB 3个月
云备份 Cloud Backup,100GB 3个月
简介: 程序日志(AppLog)有什么特点? * 内容最全:程序日志是由程序员给出,在重要的地点、变量数值以及异常都会有记录,可以说线上90%以上Bug都是依靠程序日志输出定位到 * 格式比较随意:代码往往经过不同人开发,每个程序员都有自己爱好的格式,一般非常难进行统一,并且引入的一些第三方库的

程序日志(AppLog)有什么特点?

  • 内容最全:程序日志是由程序员给出,在重要的地点、变量数值以及异常都会有记录,可以说线上90%以上Bug都是依靠程序日志输出定位到

  • 格式比较随意:代码往往经过不同人开发,每个程序员都有自己爱好的格式,一般非常难进行统一,并且引入的一些第三方库的日志风格也不太一样

  • 有一定共性:虽然格式随意,但一般都会有一些共性的地方,例如对Log4J日志而言,会有如下几个字段是必须的:

    • 时间
    • 级别(Level)
    • 所在文件或类(file or class)
    • 行数(Line Number)
    • 线程号(ThreadId)

处理程序日志会有哪些挑战?

1. 数据量大

程序日志一般会比访问日志大1个数量级:假设一个网站一天有100W次独立访问,每个访问大约有20逻辑模块,在每个逻辑模块中有10个主要逻辑点需要记录日志。

则日志总数为:

100W * 20 * 10 = 2 * 10^8 条

每条长度为200字节,则存储大小为

2 * 10^8 * 200 = 4 * 10^10 = 40 GB

这个数据会随着业务系统复杂变得更大,一天100-200GB日志对一个中型网站而言是很常见的。

2. 分布服务器多

大部分应用都是无状态模式,跑在不同框架中,例如:

  • 服务器
  • Docker(容器)
  • 函数计算(容器服务)

对应实例数目会从几个到几千,需要有一种跨服务器的日志采集方案

3. 运行环境复杂

程序会落到不同的环境上,例如:

  • 应用相关的会在容器中
  • API相关日志会在FunctionCompute中
  • 旧系统日志在传统IDC中
  • 移动端相关日志在用户处
  • 网页端(M站)在浏览器里

为了能够获得全貌,我们必须把所有数据统一并存储起来。

如何解决程序日志需求

1.统一存储

目标:要把各渠道数据采集到一个集中化中心,打通才可以做后续事情。

我们可以在日志服务中创建一个项目来存储应用日志,日志服务提供30+种日志采集手段:无论是在硬件服务器中埋点,还是网页端JS,或是服务器上输出日志,都可以在实时采集列表中找到。

image.png

在服务器日志上,除了使用SDK等直接写入外,日志服务提供便捷、稳定、高性能Agent-Logtail。logtail提供windows、linux两个版本,在控制台定义好机器组,日志采集配置后,就能够实时将服务日志进行采集。

在创建完成一个日志采集配置后,我们就可以在项目中操作各种日志了。

image.png

可能有人要问到,日志采集Agent非常多,有Logstash,Flume,FluentD,以及Beats等,Logtail和这些相比有什么特点吗?

  • 使用便捷:提供API、远程管理与监控功能,融入阿里集团百万级服务器日志采集管理经验,配置一个采集点到几十万设备只需要几秒钟
  • 适应各种环境:无论是公网、VPC、用户自定义IDC等都可以支持,https以及断点续传功能使得接入公网数据也不再话下
  • 性能强,对资源消耗非常小:经过多年磨练,在性能和资源消耗方面比开源要好,详见对比测试

2. 快速查找定位

目标:无论数据量如何增长、服务器如何部署,都可以保证定位问题时间是恒定的

例如有一个订单错误,一个延时很长,我们如何能够在一周几TB数据量日志中快速定位到问题。其中还会涉及到各种条件过滤和排查等。

  1. 例如我们对于程序中记录延时的日志,调查延时大于1秒,并且方法以Post开头的请求数据:
Latency > 1000000 and Method=Post*
  1. 对于日志中查找包含error关键词,不包含merge关键词的日志

    • 一天的结果

      image.png

    • 一周的结果

      image.png

    • 更长时间结果

      image.png

      这些查询都是在不到1秒时间内可以返回

3. 关联分析

关联有两种类型,进程内关联与跨进程关联。我们先来看看两者有什么区别:

  • 进程内关联:一般比较简单,因为同一个函数前后日志都在一个文件中。在多线程环节中,我们只要根据线程Id进行过滤即可
  • 跨进程关联:跨进程的请求一般没有明确线索,一般会通过RPC中传入TracerId来进行关联

image.png

3.1 上下文关联

还是以使用日志服务控制台距离,线上通过关键词查询定位到一个异常日志:

image.png

点击上下文查询后,既跳转到前后N条上下文

  • 显示框可以通过“更早”、“更新”等按钮加载更多上下文
  • 也可以点击“返回普通搜索模式”进一步排查通过筛选框筛选ThreadID,进行精准上下文的过滤

image.png

更多上下文查询文档请参见文档索引查询下上下文查询

3.2 跨进程关联

跨进程关联也叫Tracing,最早的工作是Google在2010年的那篇著名“Dapper, a Large-Scale Distributed Systems Tracing Infrastructure”,之后开源界借鉴了Google思想做成过了平民化的各种Tracer版本。目前比较有名的有:

  • Dapper(Google): 各 tracer基础
  • StackDriver Trace (Google),现在兼容了ZipKin
  • Zipkin:twitter开源的Tracing系统
  • Appdash:golang版本
  • 鹰眼:阿里巴巴集团中间件技术技术部研发
  • X-ray:AWS在2016年Re:Invent上推出技术

如果从0开始使用Tracer会相对容易一些,但在现有系统中去使用,则会有改造的代价和挑战。

今天我们可以基于日志服务,实现一个基本Tracing功能:在各模块日志中输出Request_id, OrderId等可以关联的标示字段,通过在不同的日志库中查找,即可拿到所有相关的日志。

image.png

例如我们可以通过SDK查询 前端机,后端机,支付系统,订单系统等日志,拿到结果后做一个前端的页面将跨进程调用关联起来,以下就是基于日志服务快速搭建的Tracing系统。

image.png

4. 统计分析

查找到特点日志后,我们有时希望能做一些分析,例如线上有多少种不同类型的错误日志?

  1. 我们先通过对"level"这个日志级别字段进行查询,得知一天内有2720个错误:
__level__:error

image.png

  1. 接下来,我们可以根据file,line这两个字段(确定唯一的日志类型)来进行统计聚合
    __level__:error | select __file__, __line__, count(*) as c group by __file__, __line__ order by c desc
    

就能够拿到所有错误发生的类型和位置的分布了

image.png

其他还有诸如根据错误码、高延时等条件进行IP定位与分析等,更多可以参见访问日志分析案例

5. 其他

1.备份日志审计

可以将日志备份至OSS或存储成本更低的IA,或直接到MaxCompute,详情参见日志投递

2.关键词报警

目前有如下方式可以进行报警

  1. 在日志服务中将日志查询另存为一个定时任务,对结果进行报警,参见文档
  2. 通过云监控日志报警功能,参见文档

3.日志查询权限分配管理

可以通过子账号+授权组方法隔离开发、PE等权限,参见文档

最后说一下价格与成本,程序日志主要会用到日志服务LogHub + LogSearch功能,这里有一个和开源方案对比,在查询成本上是开源方案25%,使用非常便捷,另你开发工作事半功倍。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
7月前
|
数据采集 分布式计算 监控
日志服务功能特性
日志服务功能特性
69 7
|
4月前
|
存储 Prometheus Kubernetes
在K8S中,如何收集K8S日志?有哪些方案?
在K8S中,如何收集K8S日志?有哪些方案?
|
7月前
|
存储 数据采集 弹性计算
日志服务的典型应用场景
日志服务的典型应用场景
127 3
|
7月前
|
Java 数据库连接 API
【日志技术】SLEF4J
【1月更文挑战第14天】当我们的系统变的更加复杂的时候,我们的日志就容易发生混乱。随着系统开发的进行,可能会更新不 同的日志框架,造成当前系统中存在不同的日志依赖,让我们难以统一的管理和控制。就算我们强制要 求所有的模块使用相同的日志框架,系统中也难以避免使用其他类似spring,mybatis等其他的第三方框 架,它们依赖于我们规定不同的日志框架,而且他们自身的日志系统就有着不一致性,依然会出来日志 体系的混乱。 所以我们需要借鉴JDBC的思想,为日志系统也提供一套门面,那么我们就可以面向这些接口规范来开 发,避免了直接依赖具体的日志框架。
|
人工智能 运维 监控
在日常开发工作中,日志数据该如何利用?
在日常开发工作中,日志数据是一个宝贵的资源,它可以提供关于应用程序运行状态、错误报告、性能指标和用户行为等方面的重要信息。正确地利用和分析日志数据可以帮助开发人员更好地理解应用程序的运行情况,快速定位和解决问题,改进应用程序的性能,并为业务决策提供有力支持。尤其是在现代科技发展的背景下,日志数据作为一种重要的信息资源,对于运维工作具有极大的价值。然而,如何充分利用日志数据,并将其应用于运维和开发工作中,仍然是许多企业和运维和开发人员关注的问题。那么本文就来分享一下在日常开发中关于日志数据的利用方面的探讨。
321 1
在日常开发工作中,日志数据该如何利用?
|
存储 人工智能 运维
日常工作中,你对于日志数据都是如何利用的?
近期阿里云宣布日志服务 SLS 内核迎来全新升级(https://developer.aliyun.com/topic/sls_pay_by_ingested_data1?spm=a2c6h.13066369.question.3.7f77533dUZ1xiM),通过运维领域模型加持,全链路提升智能分析能力,以更稳定、更智能、更高效、更普惠的平台全方面帮助企业加速拥抱云原生和AI;目前我公司日志服务的使用场景,以及公司自研的日志系统。
119 1
|
消息中间件 监控 关系型数据库
134 日志监控告警系统案例(功能架构分析)
134 日志监控告警系统案例(功能架构分析)
166 0
|
7月前
|
存储 运维 监控
日志服务 Scan 功能工作机制与最佳实践
大数据快速增长的需要泛日志(Log/Trace/Metric)是大数据的重要组成,伴随着每一年业务峰值的新脉冲,日志数据量在快速增长。同时,业务数字化运营、软件可观测性等浪潮又在对日志的存储、计算提出更高的要求。从时效性角度看日志计算引擎:数仓覆盖 T + 1 日志处理,准实时系统(搜索引擎、OLA...
165 0
日志服务 Scan 功能工作机制与最佳实践
|
消息中间件 数据可视化 NoSQL
使用ELK替换业务日志记录
可视化客户端,不是必须安装,如果是公司内部自己用的日志,那么可以直接安装,简化开发流程。 如果是对B业务,需要将日志在业务开发平台,提供给客户查询,则可以不安装Kibana,需要自行开发业务系统,做权限管理、查询Elasticsearch和展示
108 0
使用ELK替换业务日志记录
|
数据采集 存储 SQL
日志服务应用场景
日志服务的典型应用场景包括:数据采集与消费、数据清洗与流计算 (ETL/Stream Processing)、数据仓库对接(Data Warehouse)、日志实时查询与分析。
日志服务应用场景

相关产品

  • 日志服务