【MySQL】Can't get stat of './mysql/slow_log.CSV' (Errcode: 2)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
日志服务 SLS,月写入数据量 50GB 1个月
云数据库 RDS MySQL,高可用系列 2核4GB
简介:
在给数据库开启慢日志查询的时候遇到 如下问题
root@rac1 : (none) 23:39:53> set global slow_query_log = 1;
ERROR 13 (HY000): Can't get stat of './mysql/slow_log.CSV' (Errcode: 2)
原因是因为数据库中没有slow_log表对应的物理文件,解决的方法有如下两种:
方法一 手工创建slow_log.CSV
[root@rac1 mysql]# touch slow_log.CSV
[root@rac1 mysql]# chown -R mysql:mysql slow_log.CSV
[root@rac1 mysql]# chmod 660 slow_log.CSV
root@rac1 : (none) 23:42:36>set global slow_query_log = 1;
Query OK, 0 rows affected, 1 warning (0.17 sec)
root@rac1 : (none) 23:43:03>show warnings;
+-------+------+--------------------------------------------------------------+
| Level | Code | Message                                                      |
+-------+------+--------------------------------------------------------------+
| Error | 1194 | Table 'slow_log' is marked as crashed and should be repaired | 
+-------+------+--------------------------------------------------------------+
1 row in set (0.00 sec)
root@rac1 : (none) 23:48:03>repair table mysql.slow_log;
+----------------+--------+----------+----------+
| Table          | Op     | Msg_type | Msg_text |
+----------------+--------+----------+----------+
| mysql.slow_log | repair | status   | OK       | 
+----------------+--------+----------+----------+
1 row in set (0.61 sec)
root@rac1 : (none) 23:51:03>set global slow_query_log = 1;
Query OK, 0 rows affected (0.00 sec)
方法二 在数据库中以重建表的方式 (个人比较推荐第二种方式)
[root@rac1 ~]# mysql
root@rac1 : (none) 21:47:46> 
root@rac1 : (none) 21:47:47> show global variables like '%slow%';
+---------------------+----------------+
| Variable_name       | Value          |
+---------------------+----------------+
| log_slow_queries    | ON             |
| slow_launch_time    | 2              |
| slow_query_log      | ON             |
| slow_query_log_file | slow_query.log |
+---------------------+----------------+
4 rows in set (0.06 sec)
root@rac1 : (none) 21:48:19> set global slow_query_log=off;
Query OK, 0 rows affected (0.00 sec)
root@rac1 : (none) 21:48:47> 
root@rac1 : (none) 21:48:47> show global variables like '%slow%';
+---------------------+----------------+
| Variable_name       | Value          |
+---------------------+----------------+
| log_slow_queries    | OFF            |
| slow_launch_time    | 2              |
| slow_query_log      | OFF            |
| slow_query_log_file | slow_query.log |
+---------------------+----------------+
4 rows in set (0.01 sec)
root@rac1 : (none) 21:48:49> show global variables like '%slow%';
+---------------------+----------------+
| Variable_name       | Value          |
+---------------------+----------------+
| log_slow_queries    | OFF            |
| slow_launch_time    | 2              |
| slow_query_log      | OFF            |
| slow_query_log_file | slow_query.log |
+---------------------+----------------+
4 rows in set (0.00 sec)

root@rac1 : (none) 21:49:50> set global slow_query_log=on;
ERROR 13 (HY000): Can't get stat of './mysql/slow_log.CSV' (Errcode: 2)
root@rac1 : mysql 21:50:33> show create table slow_log;
ERROR 13 (HY000): Can't get stat of './mysql/slow_log.CSV' (Errcode: 2)
从一个有slow_log 的数据库中查看slow_log的表创建ddl 语句,进行创建!
root@rac1 : mysql 21:51:23> CREATE TABLE `slow_log` (
    ->   `start_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
    ->   `user_host` mediumtext NOT NULL,
    ->   `query_time` time NOT NULL,
    ->   `lock_time` time NOT NULL,
    ->   `rows_sent` int(11) NOT NULL,
    ->   `rows_examined` int(11) NOT NULL,
    ->   `db` varchar(512) NOT NULL,
    ->   `last_insert_id` int(11) NOT NULL,
    ->   `insert_id` int(11) NOT NULL,
    ->   `server_id` int(10) unsigned NOT NULL,
    ->   `sql_text` mediumtext NOT NULL
    -> ) ENGINE=MyISAM DEFAULT CHARSET=utf8 COMMENT='Slow log';
Query OK, 0 rows affected (0.04 sec)
root@rac1 : mysql 21:51:43> 
root@rac1 : mysql 21:51:55> set global slow_query_log=on;
Query OK, 0 rows affected (0.00 sec)
root@rac1 : mysql 21:52:13> 
root@rac1 : mysql 21:52:13> show global variables like '%out%'; 
+----------------------------+----------+
| Variable_name              | Value    |
+----------------------------+----------+
| log_output                 | FILE     |
+----------------------------+----------+
11 rows in set (0.00 sec)

root@rac1 : mysql 21:52:20> set global log_output = 'TABLE';
Query OK, 0 rows affected (0.00 sec)
root@rac1 : mysql 21:52:41> show global variables like '%out%'; 
+----------------------------+----------+
| Variable_name              | Value    |
+----------------------------+----------+
| log_output                 | TABLE    |
+----------------------------+----------+
11 rows in set (0.00 sec)
如果log_output 用TABLE形式记录日志,mysql会以表的形式将slow_log存入mysql表中的slow_log表中。
root@rac1 : mysql 21:52:43> select sleep(60);
+-----------+
| sleep(60) |
+-----------+
|         0 |
+-----------+
1 row in set (1 min 0.00 sec)
root@rac1 : mysql 21:54:01> select * from slow_log \G
*************************** 1. row ***************************
    start_time: 2012-08-24 21:54:01
     user_host: root[root] @ localhost [127.0.0.1]
    query_time: 00:01:00
     lock_time: 00:00:00
     rows_sent: 1
 rows_examined: 0
            db: mysql
last_insert_id: 0
     insert_id: 0
     server_id: 1
      sql_text: select sleep(60)
1 row in set (0.00 sec)
root@rac1 : mysql 21:57:53> 
root@rac1 : mysql 21:58:25> set global log_output = 'FILE';     
Query OK, 0 rows affected (0.00 sec)
root@rac1 : mysql 21:58:30> select sleep(10);                   
+-----------+
| sleep(10) |
+-----------+
|         0 |
+-----------+
1 row in set (10.00 sec)
由于log_output 用FILE形式记录日志,所以我们在vim  /home/mysql/log/mysql-slow.log 将会看到执行超过0秒的所有的sql
-bash-3.2$ tail -f slow_query.log
Tcp port: 3306  Unix socket: /tmp/mysql.sock
Time                 Id Command    Argument
# Time: 120824 21:58:48
# User@Host: root[root] @ localhost [127.0.0.1]
# Query_time: 10.001827  Lock_time: 0.000000 Rows_sent: 1  Rows_examined: 0
use mysql;
SET timestamp=1345816728;
select sleep(10);
至此问题完全得到解决。
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
相关文章
|
2月前
|
SQL 运维 关系型数据库
深入探讨MySQL的二进制日志(binlog)选项
总结而言,对MySQL binlogs深度理解并妥善配置对数据库运维管理至关重要;它不仅关系到系统性能优化也是实现高可靠性架构设计必须考虑因素之一。通过精心规划与周密部署可以使得该机能充分发挥作用而避免潜在风险带来影响。
121 6
|
8月前
|
数据可视化 关系型数据库 MySQL
ELK实现nginx、mysql、http的日志可视化实验
通过本文的步骤,你可以成功配置ELK(Elasticsearch, Logstash, Kibana)来实现nginx、mysql和http日志的可视化。通过Kibana,你可以直观地查看和分析日志数据,从而更好地监控和管理系统。希望这些步骤能帮助你在实际项目中有效地利用ELK来处理日志数据。
644 90
|
6月前
|
SQL 监控 关系型数据库
MySQL日志分析:binlog、redolog、undolog三大日志的深度探讨。
数据库管理其实和写小说一样,需要规划,需要修订,也需要有能力回滚。理解这些日志的作用与优化,就像把握写作工具的使用与运用,为我们的数据库保驾护航。
285 23
|
9月前
|
存储 SQL 关系型数据库
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log、原理、写入过程;binlog与redolog区别、update语句的执行流程、两阶段提交、主从复制、三种日志的使用场景;查询日志、慢查询日志、错误日志等其他几类日志
759 35
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
|
7月前
|
SQL 运维 关系型数据库
MySQL Binlog 日志查看方法及查看内容解析
本文介绍了 MySQL 的 Binlog(二进制日志)功能及其使用方法。Binlog 记录了数据库的所有数据变更操作,如 INSERT、UPDATE 和 DELETE,对数据恢复、主从复制和审计至关重要。文章详细说明了如何开启 Binlog 功能、查看当前日志文件及内容,并解析了常见的事件类型,包括 Format_desc、Query、Table_map、Write_rows、Update_rows 和 Delete_rows 等,帮助用户掌握数据库变化历史,提升维护和排障能力。
|
9月前
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
414 5
图解MySQL【日志】——Redo Log
|
9月前
|
关系型数据库 MySQL 数据库
图解MySQL【日志】——两阶段提交
两阶段提交是为了解决Redo Log和Binlog日志在事务提交时可能出现的半成功状态,确保两者的一致性。它分为准备阶段和提交阶段,通过协调者和参与者协作完成。准备阶段中,协调者向所有参与者发送准备请求,参与者执行事务并回复是否同意提交;提交阶段中,若所有参与者同意,则协调者发送提交请求,否则发送回滚请求。MySQL通过这种方式保证了分布式事务的一致性,并引入组提交机制减少磁盘I/O次数,提升性能。
673 4
图解MySQL【日志】——两阶段提交
|
8月前
|
存储 SQL 关系型数据库
mysql的undo log、redo log、bin log、buffer pool
MySQL的undo log、redo log、bin log和buffer pool是确保数据库高效、安全和可靠运行的关键组件。理解这些组件的工作原理和作用,对于优化数据库性能和保障数据安全具有重要意义。通过适当的配置和优化,可以显著提升MySQL的运行效率和数据可靠性。
210 16
|
8月前
|
存储 SQL 关系型数据库
mysql的undo log、redo log、bin log、buffer pool
MySQL的undo log、redo log、bin log和buffer pool是确保数据库高效、安全和可靠运行的关键组件。理解这些组件的工作原理和作用,对于优化数据库性能和保障数据安全具有重要意义。通过适当的配置和优化,可以显著提升MySQL的运行效率和数据可靠性。
161 4
|
9月前
|
关系型数据库 MySQL
图解MySQL【日志】——磁盘 I/O 次数过高时优化的办法
当 MySQL 磁盘 I/O 次数过高时,可通过调整参数优化。控制刷盘时机以降低频率:组提交参数 `binlog_group_commit_sync_delay` 和 `binlog_group_commit_sync_no_delay_count` 调整等待时间和事务数量;`sync_binlog=N` 设置 write 和 fsync 频率,`innodb_flush_log_at_trx_commit=2` 使提交时只写入 Redo Log 文件,由 OS 择机持久化,但两者在 OS 崩溃时有丢失数据风险。
232 3

热门文章

最新文章

推荐镜像

更多