记一次数据库删表事件

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
云数据库 RDS MySQL Serverless,价值2615元额度,1个月
简介: 目前我司正处于一种混乱的开发环境中;对于数据库字段增修都是开发人员直上服务器数据库修改(我多次强调);我未入职前,是直接通过SFTP连接服务器,对项目进行开发和修改(话说造成代码覆盖都不知道是谁干的,多次建议开发使用Git);入职后我写一个开发规范文档:软件开发手册(欢迎各位大佬提出意见)虽然对开发规范有所改变,但还是因为不可抗力因素无法执行,也是造成我最近想跳槽的原因;

前言

目前我司正处于一种混乱的开发环境中;

对于数据库字段增修都是开发人员直上服务器数据库修改(我多次强调);

我未入职前,是直接通过SFTP连接服务器,对项目进行开发和修改(话说造成代码覆盖都不知道是谁干的,多次建议开发使用Git);

入职后我写一个开发规范文档:软件开发手册(欢迎各位大佬提出意见)

虽然对开发规范有所改变,但还是因为不可抗力因素无法执行,也是造成我最近想跳槽的原因;

原因

某天晚上,开发经理突然打电话:大剩,我不小心删表了,能帮我恢复吗(线上环境)?

我:好的,我看下,我开启了二进制日志,应该恢复数据没有问题;

开始操作

1.输出文件

将日志文件输出到mysql_5.log(方便做其他操作)

#此处可能有多个日志文件,查看日志日期,可依个输出到不同文件中;
mysqlbinlog mysql-bin.000005  >> /home/mysql_5.log


2.查找删除的语句

#查找带有删除语句的行数
grep -n 'DROP' /home/mysql_5.log
#output:878441:DROP TABLE `wtzx`
#扩大一点区间 查看删除语句在多少行 下文at1970819是删除行语句的行号
sed -n '878430,878500p' /home/mysql_5.log
# output:
# at 1970819 
#200629 19:47:28 server id 1  end_log_pos 1970950 CRC32 0xc6b08770  Query thread_id=4276  exec_time=0 error_code=0
# use `htrans_demo`/*!*/;
# SET TIMESTAMP=1593431248/*!*/;
# SET @@session.pseudo_thread_id=4276/*!*/;
# DROP TABLE `wtzx`


3.进行恢复

mysqlbinlog  mysql-bin.000005  --stop-position=1970819 | mysql -u root -p


天真我以为这样就可以恢复 ; 其实是对Mysql二进制日志不了解; Mysql二进制日志有点类似于Redis的AOF; 开启二进制日志后记录操作日志,没有记录之前的数据则无法恢复(如创表语句等..);

结合全量备份进行恢复

好在我在服务器上,设置每天凌晨一点的定时备份,对重要的库进行全量备份(数据量少;数据量多的可以考虑全量+增量结合备份);

1.将备份脚本恢复

# 恢复备份
 cat db_test_db1.sql |mysql -uroot -p


2.恢复误删数据或者表(结合上面步骤)

# 恢复误删的数据
 mysqlbinlog  mysql-bin.000005  --stop-position=1970819 | mysql -u root -p


至此也就大功告成~~

开启定时(全量\增量)备份+ Mysql二进制日志 防止数据误操作方法

1.编写Shell脚本

#!/bin/sh
# 查找三十天前的备份的文件进行删除
find /home/mysql-backups -mtime +30 -name "*.*" -exec rm -Rf {} \;
# 数据库配置信息
DB_USER="root"
DB_PASS="123"
DB_HOST="127.0.0.1"
# 需要备份数据库数组
DB_NAME=("test_db1","test_db2")
# 其他配置
BIN_DIR="/usr/bin/"      # Mysql bin
BCK_DIR="/home/mysql-backups"  #备份文件目录
DATE=`date +%F`
# 创建文件
mkdir -p $BCK_DIR/$DATE
# 执行代码
for var in ${DB_NAME[@]};
do
  $BIN_DIR/mysqldump --opt --single-transaction --master-data=2 -u$DB_USER -p$DB_PASS -h$DB_HOST $DB_NAME > $BCK_DIR/$DATE/db_$var.sql
done
# TODO


我目前是做的全量备份,因为项目小。可以考虑全量+增量结合备份;

可加上邮件发送备份的文件到自己的邮箱,也可用上传第三方Oss;

2.设置定时任务

# crontab -e
# 设置每天凌晨一点备份
0 1 * * * /home/sh/dump.sh


总结

利用 定时备份+开启Mysql二进制日志 能更好的保证误删恢复(建议加上发送邮件,或者上传OSS)。这个是小公司做法,当然还有更多更好的方法;

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
3月前
|
存储 数据库
Navicate 如何导出数据库中的存储过程、事件、视图等?
Navicate 如何导出数据库中的存储过程、事件、视图等?
|
7月前
|
SQL 运维 关系型数据库
在OceanBase数据库中,你可以通过以下几个途径来查看慢SQL和等待事件
在OceanBase数据库中,你可以通过以下几个途径来查看慢SQL和等待事件
222 1
|
SQL 监控 Oracle
Oracle 数据库发生等待事件:enq: TX - row lock contention ,排查思路
Oracle 数据库发生等待事件:enq: TX - row lock contention ,排查思路
Oracle 数据库发生等待事件:enq: TX - row lock contention ,排查思路
|
4月前
|
SQL 监控 关系型数据库
解密SQL性能异常事件及阿里云数据库的性能调优实践
作为开发者想必都知道数据库是现代应用的核心组件之一,而且在当今互联网时代之下,SQL查询的性能直接影响系统的整体性能,它的性能对于系统的稳定性和响应速度至关重要。那么本文就来讨论一下SQL性能异常的排查和优化方法,包括我个人印象深刻的SQL性能异常事件,以及分享一下使用阿里云数据库产品/工具进行SQL性能调优的经验和心得体会。
86 1
解密SQL性能异常事件及阿里云数据库的性能调优实践
|
5月前
|
数据库 流计算
Flink CDC的工作原理是通过监听数据库的变更事件
Flink CDC的工作原理是通过监听数据库的变更事件
56 1
|
5月前
|
存储 关系型数据库 MySQL
认识MySQL数据库中的事件
认识MySQL数据库中的事件。
45 4
|
6月前
|
BI
利用 ALV 实现增删改查系列之四:如何捕捉 SAP ABAP ALV 报表行项目删除时抛出的事件试读版
利用 ALV 实现增删改查系列之四:如何捕捉 SAP ABAP ALV 报表行项目删除时抛出的事件试读版
51 0
|
存储 SQL 关系型数据库
数据库原理及MySQL应用 | 事件
事件由一个特定的线程——事件调度器来管理,事件是根据指定时间表,在某一特定的时间点,触发相关的SQL语句或存储过程。
222 1
数据库原理及MySQL应用 | 事件
|
Oracle 关系型数据库 数据库
Oracle数据库一次ORA-00600[4194]事件处理
一、问题背景 1、20191120某客户托尔斯程序运行异常,无法正常工作2、查看程序日志显示ORA-00600、ORA-02002等数据库错误3、数据库服务器信息    ①系统:CentOS 6.8(64位)    ②数据库:Oracle RAC 11.
2415 0
|
缓存 运维 关系型数据库
微博热点事件背后数据库运维的“功守道”
微博拥有超过3.76亿月活用户,是当前社会热点事件传播的主要平台。而热点事件往往具有不可预测性和突发性,较短时间内可能带来流量的翻倍增长,甚至更大。如何快速应对突发流量的冲击,确保线上服务的稳定性,对于提供全微博数据托管的服务部门数据库团队来说既是机遇又是挑战。
1812 0