Anemometer基于pt-query-digest将MySQL慢查询可视化

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
日志服务 SLS,月写入数据量 50GB 1个月
云数据库 RDS MySQL,高可用系列 2核4GB
简介:

参考文章:

http://ourmysql.com/archives/1359?utm_source=tuicool&utm_medium=referral

官方:https://github.com/box/Anemometer


单节点Anemometer监控

1 安装anemometer

1
2
# cd /data/www/web3
# git clone https://github.com/box/Anemometer.gitanemometer && cd anemometer

 

2 创建表和用户名

1
2
3
4
# mysql -uroot -proot <install.sql
# mysql -uroot -proot -e"grant ALL ON slow_query_log.* to 'anemometer'@'localhost' IDENTIFIED BY '123456';"
# mysql -uroot -proot -e"grant SELECT ON *.* to 'anemometer'@'localhost' IDENTIFIED BY '123456';"
# mysql -uroot -proot -e"flushprivileges;"

 

我们可以看下表结构如下

wKioL1dgsumQ5XJvAABppErvjtI393.png

wKiom1dgsdfxCsuTAABkX-yIQYI703.png


3 分析mysql慢日志

# pt版本高于2.2的执行下面语句,将慢查询日志放入名为slow_query_log数据库中

1
2
3
4
# pt-query-digest --user=anemometer -h 127.0.0.1 --password=123456 \
--review h=localhost,D=slow_query_log,t=global_query_review\
-- history  h=localhost,D=slow_query_log,t=global_query_review_history\
--no-report --limit=0% --filter= " \$event->{Bytes} = length(\$event->{arg}) and\$event->{hostname}=\"$HOSTNAME\""  /usr/local/mariadb/var/localhost-slow .log

这时候,数据库的slow_query_log 库,里面的global_query_review_history和global_query_review这2张表已经已经有一些数据了。

 

4 修改anemometer配置文件及配置展示日志用的虚拟主机

1
2
3
# cd /data/www/web3/anemometer/conf
# cp sample.config.inc.php  config.inc.php
# vim config.inc.php  主要修改的地方如下2个:

wKioL1dgsy-SLqdmAABI8kceUVM423.png

wKiom1dgshzjSQY9AAAcXiSnlyc209.png


配置nginx

# vim /usr/local/nginx/conf/vhost/anemometer.conf  内容如下:

1
2
3
4
5
6
7
8
server {
        listen   80;
        server_name  192.168.0.88;
        access_log   /home/wwwlogs/anemometer .log  access;
        index index.php index.html;
        root   /data/web3/anemometer ;
        include  enable -php.conf;
}
1
# /etc/init.d/nginx reload      重载nginx配置文件

 

在浏览器访问http://192.168.0.88/ 即可如下图所示(这几张图片是从别人博客摘录的,他这个截图做的特别详细)

wKioL1dgs26T9pGCAAQ4oxq_YqY188.png

wKiom1dgslyQV2DwAAHkLVvouXY404.png

wKioL1dgs3CwnyhLAACl46otCtw764.png

5 自动滚动日志

# vi /etc/logrotate.d/mysql

1
2
3
4
5
6
postrotate
pt-query-digest --user=anemometer --password=123456 \
--review D=slow_query_log,t=global_query_review \
--review- history  D=slow_query_log,t=global_query_review_history \
--no-report --limit=0% --filter= " \$event->{Bytes} = length(\$event->{arg}) and\$event->{hostname}=\"$HOSTNAME\""  /usr/local/mariadb/var/localhost-slow .log
endscript


至此,我们的anemometer算是跑通了。

但是生产环境的话,我们不可能就一个节点的啊,下面就是多节点部署的问题了。



多节点mySQL监控慢查询日志


node1:192.168.2.11   MariaDB10.0.17    还部署有nginx的anemometer web前端

node2:192.168.2.12  MariaDB10.0.17

各个节点的my.cnf里面开启慢查询,相关配置如下:

1
2
3
4
5
6
[mysqld]
innodb_file_per_table = ON
skip_name_resolve = ON
slow_query_log=ON
slow_query_log_file =localhost-slow.log
long_query_time = 2


1.   安装anemometer

node1上安装到nginx的网站目录下

1
2
3
# cd /home/wwwroot/
# git clonehttps://github.com/box/Anemometer.git anemometer
# cd anemometer

 

node2anemometer的安装目录没什么要求

1
2
3
# cd /root
# git clone https://github.com/box/Anemometer.gitanemometer
# cd anemometer


2.   创建表和用户名

node1上执行:

1
2
3
4
# mysql -uroot -proot <install.sql
# mysql -uroot -proot -e"grant ALL ON slow_query_log.* to 'anemometer'@'192.168.2.%' IDENTIFIED BY'123456';"
# mysql -uroot -proot -e "grantSELECT ON *.* to 'anemometer'@'192.168.2.%' IDENTIFIED BY '123456';"
# mysql -uroot -proot -e"flush privileges;"

 

node2上执行:

1
2
3
4
# mysql -uroot -proot <install.sql
# mysql -uroot -proot -e"grant ALL ON slow_query_log.* to 'anemometer'@'192.168.2.%' IDENTIFIED BY'123456';"
# mysql -uroot -proot -e"grant SELECT ON *.* to 'anemometer'@'192.168.2.%' IDENTIFIED BY'123456';"
# mysql -uroot -proot -e"flush privileges;"


3.   在两个节点执行pt命令分析慢查询日志,并写入到各自的数据库中

node1上执行:

1
2
3
4
# pt-query-digest --user=anemometer  --password=123456--host=192.168.2.11 \
--review h=192.168.2.11,D=slow_query_log,t=global_query_review\
-- history  h=192.168.2.11,D=slow_query_log,t=global_query_review_history\
--no-report --limit=0% --filter= " \$event->{Bytes} = length(\$event->{arg}) and \$event->{hostname}=\"$HOSTNAME\"" localhost-slow.log

node2上执行:

1
2
3
4
# pt-query-digest --user=anemometer  --password=123456--host=192.168.2.12 \
--review h=192.168.2.12,D=slow_query_log,t=global_query_review \
-- history  h=192.168.2.12,D=slow_query_log,t=global_query_review_history \
--no-report --limit=0% --filter= " \$event->{Bytes} = length(\$event->{arg}) and\$event->{hostname}=\"$HOSTNAME\""  localhost-slow.log


4.   node1上配置前端

1
2
3
# cd /home/wwwroot/anemometer/conf
# cp sample.config.inc.php  config.inc.php
# vim config.inc.php  主要修改的地方如下2个【conf项,plugins项】:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
$conf[ 'datasources' ][ '192.168.2.11' ] = array(
         'host'  =>  '192.168.2.11' ,
         'port'  => 3306,
         'db'    =>  'slow_query_log' ,
         'user'  =>  'anemometer' ,
         'password'  =>  '123456' ,
         'tables'  => array(
                 'global_query_review'  => 'fact' ,
                 'global_query_review_history' =>  'dimension'
         ),
         'source_type'  =>  'slow_query_log'
);
  
$conf[ 'datasources' ][ '192.168.2.12' ] = array(
         'host'  =>  '192.168.2.12' ,
         'port'  => 3306,
         'db'    =>  'slow_query_log' ,
         'user'  =>  'anemometer' ,
         'password'  =>  '123456' ,
         'tables'  => array(
                 'global_query_review'  => 'fact' ,
                 'global_query_review_history' =>  'dimension'
         ),
         'source_type'  =>  'slow_query_log'
);
  
$conf[ 'plugins' ] = array(
     ...省略代码...
        $conn[ 'user' ] =  'anemometer' ;
        $conn[ 'password' ] =  '123456' ;
     ...省略代码...


1
# /etc/init.d/nginx restart   重启Nginx

Chrome查看http://192.168.2.11/ 如下图所示

wKioL1dgtIjyaghXAAD73YfyHgI708.png


5.   下面是我自己写pt分析慢查询日志的脚本

(anemometer提供的那个个人感觉用不惯,自己照着写了个更简单的)

vim /home/scripts/pt-digest.sh 内容如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#!/bin/bash
# 我这里直接把配置写死了,觉得不太好的话大家可以参考其它文章将数据库的连接配置独立出来
  
# 慢查询日志存放的目录
SQL_DATADIR= "/usr/local/mariadb/var"
  
# 慢查询日志的文件名(basename)
SLOW_LOG_FILE=$( mysql -uroot -proot -e  " show global variables like'slow_query_log_file'"  tail -n1 |  awk  '{ print $2 }'  )
  
# 获取本机IP地址
IP_ADDR=$( /sbin/ifconfig  grep 'inet addr'   egrep  '172.|192.'  awk '{print $2}'  awk  -F  ":"  '{print $2}' )
  
cp  $SQL_DATADIR/$SLOW_LOG_FILE /tmp/
  
# 分析日志并存入slow_query_log这个数据库
/usr/local/bin/pt-query-digest  --user=anemometer --password=123456 --host=$IP_ADDR \
  --review h=$IP_ADDR,D=slow_query_log,t=global_query_review\
  -- history  h=$IP_ADDR,D=slow_query_log,t=global_query_review_history\
  --no-report --limit=0% --filter= "\$event->{Bytes} = length(\$event->{arg}) and\$event->{hostname}=\"$HOSTNAME\""  /tmp/ $SLOW_LOG_FILE
  
rm  -f  /tmp/ $SLOW_LOG_FILE

 

 

调试通过以后,crontab添加如下命令实现定期采集慢查询日志到数据库存储

59 23 * * * /bin/bash /home/scripts/pt-digest.sh> /dev/null

 

这样每天就能自动分析采集慢查询日志了。

 

另外,慢查询日志建议按天切分,这样用pt-query-digest进行SQL慢查询日志统计的时候就避免重复分析了。慢查询按天切分的脚本如下:


Tips下面是慢查询日志切分脚本:

 

下面是一个轮询切割mySQL慢查询和错误日志的脚本(/home/scripts/mysql_log_rotate):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
"/usr/local/mariadb/var/localhost-slow.log" "/usr/local/mariadb/var/localhost_err" 
     create 660 mariadb mariadb       # 这个文件权限和属主属组需要根据自己的情况修改
    dateext
    notifempty
    daily
    maxage 60
    rotate 30
    missingok
    olddir  /usr/local/mariadb/var/oldlogs   # 这个目录不存在的话,要自己先新建好,并修改属主为mariadb
  
    postrotate
         if  /usr/local/mariadb/bin/mysqladminping  -uroot -proot &> /dev/null then
             /usr/local/mariadb/bin/mysqladminflush-logs  -uroot -proot
         fi
    endscript
}

wKiom1dgs8HBGhbTAABRb71CZvY831.png


再配置个CRONTAB

1
00 00 * * * ( /usr/sbin/logrotate-f  /home/scripts/mysql_log_rotate  > /dev/null  2>&1)

 

这样的话,每天慢查询日志、错误日志就自动存储到/usr/local/mariadb/var/oldlogs/这个目录下了。










本文转自 lirulei90 51CTO博客,原文链接:http://blog.51cto.com/lee90/1789398,如需转载请自行联系原作者
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
目录
相关文章
|
3月前
|
存储 SQL 关系型数据库
mysql底层原理:索引、慢查询、 sql优化、事务、隔离级别、MVCC、redolog、undolog(图解+秒懂+史上最全)
mysql底层原理:索引、慢查询、 sql优化、事务、隔离级别、MVCC、redolog、undolog(图解+秒懂+史上最全)
mysql底层原理:索引、慢查询、 sql优化、事务、隔离级别、MVCC、redolog、undolog(图解+秒懂+史上最全)
|
4月前
|
SQL 缓存 关系型数据库
MySQL 慢查询是怎样优化的
本文深入解析了MySQL查询速度变慢的原因及优化策略,涵盖查询缓存、执行流程、SQL优化、执行计划分析(如EXPLAIN)、查询状态查看等内容,帮助开发者快速定位并解决慢查询问题。
168 0
|
4月前
|
SQL 监控 关系型数据库
MySQL慢查询攻略
本文详细介绍了MySQL慢查询优化的全流程,从定位性能瓶颈到具体优化策略,再到高级调优与预防监控。首先通过开启慢查询日志和分析工具(如pt-query-digest)找到问题SQL,接着从索引优化(如最左前缀原则、覆盖索引)、SQL语句重构(如避免全表扫描)及EXPLAIN执行计划解析等方面进行核心优化。随后深入参数调优和架构升级,如调整innodb_buffer_pool_size、实施分库分表等。最后,通过实时监控工具(如PMM、Prometheus+Grafana)建立长效机制,并以电商订单查询为例,展示优化前后性能大幅提升的实战效果。
441 0
|
7月前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
533 90
|
11月前
|
SQL 关系型数据库 MySQL
大厂面试官:聊下 MySQL 慢查询优化、索引优化?
MySQL慢查询优化、索引优化,是必知必备,大厂面试高频,本文深入详解,建议收藏。关注【mikechen的互联网架构】,10年+BAT架构经验分享。
大厂面试官:聊下 MySQL 慢查询优化、索引优化?
|
9月前
|
关系型数据库 MySQL 数据库
mysql慢查询每日汇报与分析
通过启用慢查询日志、提取和分析慢查询日志,可以有效识别和优化数据库中的性能瓶颈。结合适当的自动化工具和优化措施,可以显著提高MySQL数据库的性能和稳定性。希望本文的详解和示例能够为数据库管理人员提供有价值的参考,帮助实现高效的数据库管理。
220 11
|
10月前
|
缓存 关系型数据库 MySQL
MySQL 索引优化以及慢查询优化
通过本文的介绍,希望您能够深入理解MySQL索引优化和慢查询优化的方法,并在实际应用中灵活运用这些技术,提升数据库的整体性能。
262 18
|
11月前
|
SQL 关系型数据库 MySQL
MySQL慢查询优化、索引优化、以及表等优化详解
本文详细介绍了MySQL优化方案,包括索引优化、SQL慢查询优化和数据库表优化,帮助提升数据库性能。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
MySQL慢查询优化、索引优化、以及表等优化详解
|
10月前
|
缓存 关系型数据库 MySQL
MySQL 索引优化以及慢查询优化
通过本文的介绍,希望您能够深入理解MySQL索引优化和慢查询优化的方法,并在实际应用中灵活运用这些技术,提升数据库的整体性能。
763 7
|
10月前
|
缓存 关系型数据库 MySQL
MySQL 索引优化与慢查询优化:原理与实践
通过本文的介绍,希望您能够深入理解MySQL索引优化与慢查询优化的原理和实践方法,并在实际项目中灵活运用这些技术,提升数据库的整体性能。
553 5

推荐镜像

更多