PostgreSQL技术大讲堂 - 第34讲:调优工具pgBagder部署

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
RDS SQL Server Serverless,2-4RCU 50GB 3个月
推荐场景:
简介: PostgreSQL从小白到专家技术大讲堂 - 第34讲:调优工具pgBagder部署


PostgreSQL从小白到专家,是从入门逐渐能力提升的一个系列教程,内容包括对PG基础的认知、包括安装使用、包括角色权限、包括维护管理、、等内容,希望对热爱PG、学习PG的同学们有帮助,欢迎持续关注CUUG PG技术大讲堂。


第34讲:调优工具pgBagder部署


第34讲:11月18日(周六)19:30-20:30,往期文档及视频,联系CUUG

内容1 : 日志分析器pgBadger简介

内容2 : pgBadger部署

内容3 : 如何产生类似于AWR报告

内容4 : 基于:一小时、一天、一周、一月的报告

内容5 :  如何分析pgBadger


第34讲:调优工具pgBagder部署


pgBadger简介

pgBadger是一个PostgreSQL日志分析器,它是为提高速度而构建的,具有来自PostgreSQL日志文件的完整报告。它是一个小型的Perl脚本,性能优于任何其他PostgreSQL日志分析器。

pgBadger可以自动检测日志文件格式(syslog、stderr、csvlog或jsonlog)。它被设计用来解析巨大的日志文件和压缩文件。支持的压缩格式有gzip、bzip2、lz4、xz、zip和zstd。

还可以使用命令行选项将pgBadger限制为仅报告错误或删除报告的任何部分。

pgBadger支持在postgresql.conf文件中通过log_line_prefix 自定义的任何格式,只要它至少指定%t和%p模式。

pgBadger允许通过使用指定CPU数量的-j选项并行处理单个日志文件或多个文件。

如果要保存系统性能,也可以使用log_duration 替代log_min_duration_statement来仅报告持续时间和查询数。


pgBadger特性

· pgBadger报告有关SQL查询的所有信息:

总体统计数据。

等待最频繁的查询。

等待时间最长的查询。

生成最多临时文件的查询。

生成最大临时文件的查询。

最慢的查询。

占用时间最多的查询。

最频繁的查询。

最常见的错误。

查询时间直方图。

会话时间柱状图。

参与热门查询的用户。

顶级查询中涉及的应用程序。

产生最多取消的查询。

查询大部分被取消。

最耗时的准备/绑定查询。


· 还提供分为五分钟的小时图表

SQL查询统计信息。

临时文件统计。

检查点统计。

自动真空和自动分析统计数据。

取消的查询。

错误事件(死机、致命、错误和警告)。

错误类分布。


· 一些关于分布的饼图:

锁定统计信息。

按类型查询(选择/插入/更新/删除)。

每个数据库/应用程序的查询类型分布。

每个数据库/用户/客户端/应用程序的会话数。

每个数据库/用户/客户端/应用程序的连接数。

根据表格自动真空和自动分析。

每个用户的查询数和每个用户的总持续时间。

所有图表都是可缩放的,可以保存为PNG图像。报告的SQL查询将自动突出显示和美化。


· 可以解析PgBouncer日志文件并创建以下报告

请求吞吐量

字节I/O吞吐量

查询平均持续时间

同时举行的会议

会话时间柱状图

每个数据库的会话数

每个用户的会话数

每个主机的会话数

已建立的联系

每个数据库的连接数

每个用户的连接数

每个主机的连接数

使用最多的保留池

最常见错误/事件


pgBadger报告模式

· pgBadger报告模式

一小时一个报告

每天一个报告

每周一个累积报告的增量报告

每月一个报告

多个进程处理一个日志

多个进程处理多个日志


pgBadger部署

· 官方下载地址

https://github.com/darold/pgbadger/releases

· 编译与安装(root用户)

1、解压后进入该安装目录

# unzip pgbadger-master.zip

# cd pgbadger-master

2、编译并安装:

# perl Makefile.PL

# make && make install

3、默认安装目录:

/usr/local/bin/pgbadger


postgresql.conf配置

logging_collector = on

log_directory = 'pg_log‘

log_checkpoints = on

log_connections = on

log_disconnections = on

log_lock_waits = on

log_temp_files = 0

log_autovacuum_min_duration = 0

log_rotation_size=10240

--例如,对于“stderr”日志格式,日志行前缀必须至少为:

log_line_prefix = '%t [%p]: '

--日志行前缀可以添加用户、数据库名称、应用程序名称和客户端ip地址,如下所示:

log_line_prefix = '%t [%p]: user=%u,db=%d,app=%a,client=%h '

--或者对于syslog日志文件格式:

log_line_prefix = 'user=%u,db=%d,app=%a,client=%h '

--日志消息支持英文,不支持中文:

lc_messages='en_US.UTF-8'

lc_messages='C‘

--记录的日志语句

假如:log_statement=all

则:不会使用(log_min_duration_statement)记录任何内容

所以:log_min_duration_statement=0 #记录所有的统计信息包含实际的查询字符串

警告:不要同时启用log_min_duration_statement、log_duration and log_statement ,这将导致错误的计数器值。注意,这也会大大增加日志的大小。log_min_duration_statement应始终首选。


如何产生报告

当有许多小的日志文件和许多CPU时,一次将一个内核专用于一个日志文件会更快。要启用此行为,必须改用-J N选项。对于每个10MB的200个日志文件,-J选项的使用开始变得非常有效,有8个内核。使用此方法,您将确保不会丢失报表中的任何查询。

一个在服务器上完成的基准测试,有8个CPU和9.5GB的单个文件。

Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU

--------+---------+-------+-------+------

-j | 1h41m18 | 50m25 | 25m39 | 15m58

-J | 1h41m18 | 54m28 | 41m16 | 34m45

200个日志文件,每个10MB,总共2GB,结果略有不同:

Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU

--------+-------+-------+-------+------

-j | 20m15 | 9m56 | 5m20 | 4m20

-J | 20m15 | 9m49 | 5m00 | 2m40

--产生一个小时的日志报告:

$ pgbadger -q /usr/local/pg12.2/data/pg_log/postgresql-2020-06-19_00*.log \

-o /home/postgres/www/pg_reports/day-06-19-00.html

--产生每日和每周的日志报告:

$ pgbadger -I -q /usr/local/pg12.2/data/pg_log/* \

-O /home/postgres/www/pg_reports/ \

-f stderr

在这种模式下,pgBadger将在输出目录中创建一个自动增量文件。这意味着可以在每周旋转的日志文件上每天以这种模式运行pgBadger,并且它不会对日志条目计数两次,可以使用crontab进行定时运行。

--重建报告:

pgbadger -X -I -O /home/postgres/www/pg_reports/ --rebuild

此时在reports目录下产生创建一个目录,里面包含js文件,同时在另外一个目录下创建一个目录week-25,存放index文件。

它还将更新所有资源文件(JS和CSS)。如果报表是使用此选项生成的,请使用-E或--explode。

--默认情况下,增量模式下的pgBadger只计算每日和每周报告。如果需要每月累积报告,则必须使用单独的命令指定要生成的报告。例如,为2019年8月编制一份报告:

pgbadger --month-report 2919-08 /path/to/incremantal/reports/

JSON FORMAT

JSON格式有利于与其他语言共享数据,这使得pgBadger结果很容易集成到其他监控工具(如Cacti或Graphite)中。


报告界面一


报告界面二

CUUG PostgreSQL技术大讲堂系列公开课,往期视频及文档,请联系CUUG客服。

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
目录
相关文章
|
6月前
|
关系型数据库 Java 数据库连接
PostgreSQL从小白到高手教程 - 第47讲:JMETER工具使用
PostgreSQL从小白到高手教程 - 第47讲:JMETER工具使用
185 3
|
5月前
|
自然语言处理 关系型数据库 数据库
技术经验解读:【转】PostgreSQL的FTI(TSearch)与中文全文索引的实践
技术经验解读:【转】PostgreSQL的FTI(TSearch)与中文全文索引的实践
50 0
|
6月前
|
自然语言处理 算法 关系型数据库
postgresql 全文检索 SCWS和zhparser部署
UPDATE report_content SET content_tsv = to_tsvector('testzhcfg',content);
116 8
|
6月前
|
关系型数据库 Java 数据库
docker部署postgresql数据库和整合springboot连接数据源
docker部署postgresql数据库和整合springboot连接数据源
149 0
|
6月前
|
缓存 运维 关系型数据库
PostgreSQL技术大讲堂 - 第43讲:流复制原理
PostgreSQL技术大讲堂 - 第43讲:流复制原理
283 2
|
6月前
|
弹性计算 关系型数据库 分布式数据库
PolarDB for PostgreSQL部署问题之部署失败如何解决
PolarDB for PostgreSQL是基于PostgreSQL开发的一款云原生关系型数据库服务,它提供了高性能、高可用性和弹性扩展的特性;本合集将围绕PolarDB(pg)的部署、管理和优化提供指导,以及常见问题的排查和解决办法。
|
6月前
|
SQL 关系型数据库 数据库
PostgreSQL从小白到高手教程 - 第44讲:pg流复制部署
PostgreSQL技术大讲堂 - 第44讲:pg流复制部署
176 0
|
关系型数据库 分布式数据库 PolarDB
《阿里云产品手册2022-2023 版》——PolarDB for PostgreSQL
《阿里云产品手册2022-2023 版》——PolarDB for PostgreSQL
358 0
|
存储 缓存 关系型数据库
|
存储 SQL 并行计算
PolarDB for PostgreSQL 开源必读手册-开源PolarDB for PostgreSQL架构介绍(中)
PolarDB for PostgreSQL 开源必读手册-开源PolarDB for PostgreSQL架构介绍
410 0

相关产品

  • 云原生数据库 PolarDB