锁是计算机协调多个进程或线程并发访问某一资源的机制,MySQL的InnoDB锁机制分为表级锁和行级锁,。 事务的隔离性由锁机制来实现。
锁是计算机协调多个进程或线程并发访问某一资源的机制。在程序开发中会存在多线程同步的问题,当多个线程并发访问某个数据的时候,尤其是针对一些敏感的数据(比如订单、金额等),我们就需要保证这个数据在任何时刻最多只有一个线程在访问,保证数据的完整性和一致性。在开发过程中加锁是为了保证数据的一致性,这个思想在数据库领域中同样很重要。
在数据库中,除传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供许多用户共享的资源。为保证数据的一致性,需要对并发操作进行控制,因此产生了锁。同时,锁机制也为实现MySQL的各个隔离级别提供了保证。锁冲突也是影响数据库并发访问性能的一个重要因素。所以锁对数据库而言显得尤其重要,也更加复杂。
【1】MySQL并发事务访问相同记录
并发事务访问相同记录的情况大致可以划分为3种:读读,写写,读-写或者写读。
① 读-读情况
读-读情况,即并发事务相继读取相同的记录。读取操作本身不会对记录有任何影响,并不会引起什么问题,所以允许这种情况的发生。
② 写-写情况
写-写情况,即并发事务相继对相同的记录做出改动。
在这种情况下会发生脏写的问题,任何一种隔离级别都不允许这种问题的发生。所以在多个未提交事务相继对一条记录做改动时,需要让它们排队执行,这个排队的过程其实是通过锁来实现的。这个所谓的锁其实是一个内存中的结构,在事务执行前本来是没有锁的,也就是说一开始是没有锁结构和记录进行关联的。
当一个事务想对这条记录做改动时,首先会看看内存中有没有与这条记录关联的锁结构。当没有的时候就会在内存中生成一个锁结构与之关联。比如,事务T1要对这条记录做改动,就需要生成一个锁结构与之关联。
在锁结构里有很多信息,为了简化理解,只把两个比较重要的属性拿了出来:
trx信息:代表这个锁结构是哪个事务生成的。
is_waiting:代表当前事务是否在等待
当事务T1改动了这条记录后,就生成了一个锁结构与该记录关联。因为之前没有别的事务为这条记录加锁,所以is_waiting属性就是false,我们把这个场景就称之为获取锁成功,或者加锁成功。然后就可以继续执行操作。
在事务T1提交之前,另一个事务T2也想对该记录做改动。那么先看看有没有锁结构与这条记录关联,发现有一个锁结构与之关联后,然后也生成了一个锁结构与这条记录关联。不过锁结构的is_waiting属性值为true,表示当前事务需要等待,我们把这个场景就称之为获取锁失败,或者加锁失败。
在事务T1提交之后,就会把该事务生成的锁结构释放掉,然后看看还有没有别的事务在等待获取锁。发现了事务T2还在等待获取锁,所以把事务T2对应的锁结构的 is_waiting 属性设置为false。然后把该事务对应的线程唤醒,让它继续执行,此时事务T2就算获取到锁了。
名词解释
不加锁 :意思就是不需要在内存中生成对应的锁结构,可以直接执行操作
获取锁成功或者加锁成功:意思就是在内存中生成了对应的锁结构,而且锁结构的 is_waiting 属性为 false,也就是事务可以继续执行操作。
获取锁失败,或者加锁失败,或者没有获取到锁:意思就是在内存中生成了对应的锁结构,不过锁结构的 is_waiting 属性为true ,也就是事务需要等待,不可以继续执行操作。
③ 读-写或写-读情况
读-写或写-读,即一个事务进行读取操作,另一个进行改动操作。这种情况下可能发生脏读、不可重复读、幻读的问题。
各个数据库厂商对SQL标准的支持都可能不一样。比如MySQL在REPEATABLE READ隔离级别上就已经解决了幻读问题。
④ 并发问题的解决方案
怎么解决脏读、不可重复读、幻读这些问题呢?其实有两种可选的解决方案:
方案一:读操作利用多版本并发控制(MVCC),写操作进行加锁。
方案二:读写都采用加锁的方式。
所谓的MVCC,就是生成一个ReadView,通过ReadView找到符合条件的记录版本(历史版本由undo日志构建)。查询语句只能读到在生成ReadView之前已提交事务所做的更改,在生成ReadView之前未提交的事务或者之后才开启的事务所做的更改是看不到的。而写操作肯定针对的是最新版本的记录,读记录的历史版本和改动记录的最新版本本身并不冲突,也就是采用MVCC时,读-写操作并不冲突。
普通的select语句在READ COMMITTED 和 REPEATABLE READ 隔离级别下会使用到MVCC读取记录。
在READ COMMITTED隔离级别下,一个事务在执行过程中每次执行select操作时都会生成一个ReadView,ReadView的存在本身就保证了事务不可以读取到未提交的事务所做的更改,也就是避免了脏读现象。
在REPEATABLE READ隔离级别下,一个事务在执行过程中只有第一次执行select操作才会生成一个ReadView,之后的select操作都复用这个ReadView,这样也就避免了不可重复读和幻读的问题。
关于方案二的说明
如果我们的一些业务场景不允许读取记录的旧版本,而是每次都必须去读取记录的最新版本。比如,在银行存款的事务中,你需要先把账户的余额读出来,然后将其加上本次存款的数额,最后再写到数据库中。在将账户余额读取出来后,就不想让别的事务再访问该余额,直到本次存款事务执行完成,其他事务才可以访问账户的余额。这样在读取记录的时候就需要对其进行加锁操作,这样也就意味着读操作和写操作也像写-写操作那样排队执行。
脏读的产生是因为当前事务读取了另一个未提交事务写的一条记录。如果另一个事务在写记录的时候就给这条记录加锁,那么当前事务就无法继续读取该记录了,也就不会有脏读问题的产生了。
不可重复读的产生是因为当前事务先读取一条记录,另外一个事务对该记录做了改动并提交之后,当前事务再次读取时会获得不同的值。如果在当前事务读取记录时就给该记录加锁,那么另一个事务就无法修改该记录,自然也不会发生不可重复读了。
幻读问题的产生是因为当前事务读取了一个范围的记录,然后另外的事务向该范围内插入了新纪录,当前事务再次读取该范围的记录时发现了新插入的新纪录。采用加锁的方式解决幻读问题就有一些麻烦,因为当前事务再第一次读取记录时幻影记录并不存在,所以读取的时候加锁就有点尴尬(因为你并不知道给谁加锁)。
小结对比发现
采用MVCC方式的话,读-写操作彼此并不冲突,性能更改
采用加锁方式的话,读-写操作彼此需要排队执行,影响性能
一般情况下我们当然愿意采用MVCC来解决读-写操作并发执行的问题,但是业务在某些特殊情况下,要求必须采用加锁的方式执行。
锁的不同角度分类
锁的分类图如下:
【2】 从数据操作的类型划分:读锁、写锁
对于数据库中并发事务的读-读情况并不会引起什么问题。对于写-写、读-写或写-读这些情况可能会引起一些问题,需要使用MVCC或者加锁的方式来解决它们。在使用加锁的方式解决问题时,由于既要允许读-读情况不受影响,又要使写-写、读-写或写-读情况中的操作相互阻塞,所以MySQL实现一个由两种类型的锁组成的锁系统来解决。这两种类型的锁通常被称为共享锁(Shared Lock ,SLock)和排他锁(Exclusive Lock,X Lock),也叫读锁(readlock)和写锁(write lock)。
读锁:也被称为共享锁,英文用S表示。针对同一份数据,多个事务的读操作可以同时进行而不会互相影响,相互不阻塞的。
写锁:也称为排他锁,英文用X表示。当前写操作没有完成前,它会阻断其他写锁和读锁。这样就能确保在给定的时间里,只有一个事务能执行写入,并防止其他用户读取正在写入的同一资源。
需要注意的是对于InnoDB引擎来说,读锁和写锁可以加在表上,也可以加在行上。
举例(行级读写锁) : 如果一个事务T1已经获得了某个行 r 的读锁,那么此时另外的一个事务T2是可以去获得这个行 r 的读锁的,因为读操作并没有改变行 r 的数据;但是如果某个事务T3想获得行 r 的写锁,则它必须等待事务T1、T2释放掉行 r 上的读锁才行。
总结:这里的兼容是指对同一张表或记录的锁的兼容性情况。
\ |
X锁 | S锁 |
X锁 | 不兼容 | 不兼容 |
S锁 | 不兼容 | 兼容 |
① 锁定读
在采用加锁方式解决脏读、不可重复读、幻读这些问题时,读取一条记录时需要获取该记录的S锁。这其实是不严谨的,有时候需要在读取记录时就获取记录的X锁,来禁止别的事务读写该记录。为此MySQL提出了两种比较特殊的select语句格式。
- 对读取的记录加S锁:
select ... lock in share mode; # 或 select ... for share ;#(8.0新增语法)
在普通的select语句后边加 lock in share mode,如果当前事务执行了该语句,那么它会为读取到的记录加S锁,这样允许别的事务继续获取这些记录的S锁(比方说别的事务也使用select... lock in share mode语句来读取这些记录)。但是不能获取这些记录的X锁(比如使用select ... for update语句来读取这些记录,或者直接修改这些记录)。如果别的事务想要获取这些记录的X锁,那么它们会阻塞,直到当前事务提交之后将这些记录上的S锁释放掉。
- 对读取的记录加X锁:
select ... for update;
在普通的select语句后边加 for update,如果当前事务执行了该语句,那么它会为读取到的记录加X锁,这样既不允许别的事务继续获取这些记录的S锁(比方说别的事务也使用select... lock in share mode语句来读取这些记录),也不允许获取这些记录的X锁(比如使用select ... for update语句来读取这些记录,或者直接修改这些记录)。如果别的事务想要获取这些记录的S锁或者X锁,那么它们会阻塞,直到当前事务提交之后将这些记录上的X锁释放掉。
MySQL InnoDB引擎默认的修改数据语句,update,delete,insert都会自动给涉及到的数据加上排他锁,select语句默认不会加任何锁类型。
MySQL8.0新特性
在5.7及之前的版本,select...for update,如果获取不到锁会一直等待,直到 innodb_lock_wait_timeout超时。在8.0版本中,select .. for update , select ... for share 添加NOWAIT、SKIP LOCKED语法,跳过锁等待,或者跳过锁定。
通过添加NOWAIT、SKIP LOCKED语法,能够立即返回,如果查询的行已经加锁:
- 那么NOWAIT会立即报错返回
- 而SKIP LOCKED也会立即返回,只是返回的结果中不包含被锁定的行。
select * from t1 where c1=2 for update nowait;
② 写操作
平时所用到的写操作无非是delete、update、insert这三种。
delete : 对一条记录做delete操作的过程其实是先在B+树中定位到这条记录的位置,然后获取这条记录的X锁,再执行delete mark操作。我们也可以把这个定位待删除记录在B+树中位置的过程看成是一个获取X锁的锁定读。
update:在对一条记录做update操作时分为三种情况。
情况1:未修改该记录的键值,并且被更新的列占用的存储空间在修改前后未发生变化。则先在B+树中定位到这条记录的位置,然后再获取一下记录的X锁,最后在原记录的位置进行修改操作。我们也可以把这个定位待修改记录在B+树中位置的过程看成是一个获取X锁的锁定读。
情况2:未修改该记录的键值,并且至少有一个被更新的列占用的存储空间在修改前后发生变化。则先在B+树中定位到这条记录的位置,然后获取一下记录的X锁,将该记录彻底删除掉(就是把记录彻底移入垃圾链表),最后再插入一条新记录。这个定位待修改记录在B+树中位置的过程看成是一个获取X锁的锁定读,新插入的记录由insert操作提供的隐式锁进行保护。
情况3:修改了该记录的键值,则相当于在原记录上做delete操作以后再来一次insert操作,加锁操作就需要按照delete和insert的规则进行了。
insert:一般情况下,新插入一条记录的操作并不加锁,通过一种称之为 隐式锁 的结构来保护这条新插入的记录在本事务提交前不被别的事务访问。
【3】 从数据操作的粒度划分:表级锁、页级锁、行锁
① 表锁(Table Lock)
该锁会锁定整张表,它是MySQL中最基本的锁策略,并不依赖于存储引擎(不管你是MySQL的什么存储引擎,对于表锁的策略都是一样的),并且表锁是开销最小的策略(因为粒度比较大)。由于表级锁一次会将整个表锁定,所以可以很好的避免死锁问题。当然,锁的粒度大所带来的最大的负面影响就是初夏你锁资源争用的概率也会最高,导致并发率大打折扣。
① 表级别的S锁、X锁
在对某个表执行select、insert、delete、update语句时,InnoDB存储引擎是不会为整个表添加表级别的S锁或者X锁的。在对某个表执行一些诸如Alter table、Drop table这类的DDL语句时,其他事务对这个表并发执行诸如select、insert、delete、update的语句会发生阻塞。同理,某个事务中对某个表执行select、insert、delete、update语句时,在其他会话中对这个表执行DDL语句也会发生阻塞。这个过程其实是通过在server层使用一种称之为“元数据锁”(英文名:Metadata Locks,简称MDL)结构来实现的。
一般情况下,不会使用InnoDB存储引擎提供的表级别的S锁和X锁。只会在一些特殊情况下,比方说崩溃恢复过程中用到。比如,在系统变量autocommit=0,innodb_table_locks=1时,手动获取InnoDB存储引擎提供的表t的S锁或者X锁可以这么写:
LOCK TABLES t READ : InnoDB存储引擎会对表 t 加表级别的S锁。
LOCK TABLES t WRITE : InnoDB存储引擎会对表 t 加表级别的X锁。
不过尽量避免在使用InnoDB存储引擎的表上使用LOCK TABLES这样的手动锁表语句,它们并不会提供什么额外的保护,只是会降低并发能力而已。InnoDB的厉害之处还是实现了更细粒度的行锁。
查看锁定的表
show open tables where in_use >0 # 手动锁表 lock tables conf_param read; # 再次查看 此时有表锁 show open tables where in_use >0; # 释放锁 unlock tables
MyISAM在执行查询语句(select)前,会给涉及到的所有表加读锁,在执行增删改操作之前,会给涉及到的表加写锁。InnoDB存储引擎是不会为这个表添加表级别的读锁或者写锁的。
MySQL的表级锁有两种模式:(以MyISAM表进行操作的演示)
- 表共享读锁(Table Read Lock)
- 表独占写锁(Table Write Lock)
特点:开销小,加锁快;不会出现死锁;锁定粒度大,发出锁冲突的概率最高,并发度最低。
② 意向锁(intention lock)
InnoDB支持多粒度锁(multiple granularity locking),它允许行级锁与表级锁共存,而意向锁就是其中的一种表锁。
意向锁的存在是为了协调行锁和表锁的关系,支持多粒度(表锁与行锁)的锁并存。
意向锁是一种不与行级锁冲突表级锁,这一点非常重要。
表明“某个事务正在某些行持有了锁或该事务准备去持有锁”。
意向锁分为两种:
- 意向共享锁(intention shared lock ,IS):事务有意向对表中的某些行加共享锁(S锁)
# 事务要获取某些行的S锁,必须先获得表的IS锁 select column from table ... lock in share mode ;
意向排他锁(intention exclusive lock,IX):事务有意向对表中的某些行加排他锁(X锁)
# 事务要获取某些行的X锁,必须先获得表的IX锁 select column from table ... for update ;
即,意向锁是由存储引擎自己维护的,用户无法手动操作意向锁。在为数据行加共享/排他锁之前,InnoDB会先获取该数据行所在数据表的对应意向锁。
1.意向锁要解决的问题
现在有两个事务,分别是T1和T2,其中T2试图在该表级别上应用共享或排他锁。如果没有意向锁的存在,那么T2就需要去检查各个页或行是否存在锁。如果存在意向锁,那么此时就会受到由T1控制的表级别意向锁的阻塞。T2在锁定该表前不必检查各个页或行锁,而只需检查表上的意向锁。简单来说就是给更大一级别的空间示意里面是否已经上过锁。
在数据表的场景中,如果我们给某一行数据加上了排它锁,数据库会自动给更大一级的空间,比如数据页或数据表加上意向锁,告诉其他人这个数据页或数据表已经有人上过排它锁了。这样当其他人想要获取数据表排它锁的时候,只需要了解是否有人已经获取了这个数据表的意向排它锁即可。
如果事务想要获得数据表中某些记录的共享锁,就需要在数据表上添加意向共享锁。
如果事务想要获得数据表中某些记录的排它锁,就需要在数据表上添加意向排他锁。
这时,意向锁会告诉其他事务已经有人锁定了表中的某些记录。
举例(隔离级别是可重复读),一个teacher表,有六条数据。假设事务A获取了某一行的排他锁,并未提交,语句如下所示:
begin ; select * from teacher where id=6 for update;
事务B想要获取teacher表的表读锁,语句如下:
begin; lock tables teacker read;
因为共享锁与排他锁互斥,所以事务B在试图对teacher表加共享锁的时候,必须保证两个条件。
(1) 当前没有其他事务持有teacher表的排他锁
(2) 当前没有其他事务持有teacher表中任意一行的排他锁。
为了检测是否满足第二个条件,事务B必须在确保teacher表不存在任何排他锁的前提下,去检测表中的每一行是否存在排他锁。很明显这是一个效率很差的做法,但有了意向锁之后,情况就不一样了。
意向锁是怎么解决这个问题的呢?首先我们需要知道意向锁之间的兼容互斥性,如下所示。
意向共享锁(IS) | 意向排他锁(IX) | |
意向共享锁(IS) | 兼容 | 兼容 |
意向排他锁(IX) | 兼容 | 兼容 |
即意向锁之间是相互兼容的,虽然意向锁和自家兄弟互相兼容,但是它会与普通的排他/共享锁互斥。
意向共享锁(IS) | 意向排他锁(IX) | |
共享锁(S) | 兼容 | 互斥 |
排他锁(X) | 互斥 | 互斥 |
注意这里的排他/共享锁指的都是表锁
,意向锁不会与行级的共享/排他锁互斥。回到上面teacher表的例子。
事务A获取了某一行的排他锁,并未提交:
begin ; select * from teacher where id=6 for update;
此时teacher表存在两把锁:teacher表上的意向排他锁与id为6的数据行上的排他锁。事务B想要获取teacher表的共享锁:
begin ; lock tables teacher read;
此时事务B检测事务A持有teacher表的意向排他锁,就可以得知事务A必然持有该表中某些数据行的排他锁,那么事务B对teacher表的加锁请求就会被排斥(阻塞)而无需去检测表中的每一行数据是否存在排他锁。
2. 意向锁的并发性
意向锁不会与行级的共享/排他锁互斥!正因为如此,意向锁并不会影响到多个事务对不同数据行加排他锁时的并发性(不然我们之间用普通的表锁就行了)。
我们扩展一下上面teacher表的例子来概括一下意向锁的作用(一条数据从被锁定到被释放的过程中,可能存在多种不同锁,但是这里我们只着重表现意向锁)。
事务A获取了某一行的排他锁,并未提交:
begin ; select * from teacher where id=6 for update;
事务A获取了teacher表上的意向排他锁,事务A获取了id为6的数据行上的排他锁。之后事务B想要获取teacher表的共享锁。
begin ; lock tables teacher read;
事务B检测到事务A持有teacher表的意向排他锁,事务B对teacher表的加锁请求被阻塞(排斥)。最后事务C也想获取teacher表中某一行的排他锁。
begin ; # id=6 肯定是不行的,其他可以 select * from teacher where id=5 for update;
事务C申请teacher表的意向排他锁。事务C检测到事务A持有teacher表的意向排他锁。因为意向锁之间并不互斥,所示事务C获取到了teacher表的意向排他锁。因为id为5的数据行上不存在任何排他锁,最终事务C成功获取到了该数据行上的排他锁。
从上面的案例可以得到如下结论:
InnoDB支持多粒度锁,特定场景下,行级锁可以与表级锁共存
意向锁之间互不相斥,但除了IS与S兼容外,意向锁会与表级别的 共享锁 / 排他锁 互斥
IX,IS是表级锁,不会和行级的X,S发生冲突。只会和表级的X,S发生冲突。
意向锁在保证并发性的前提下,实现了行锁和表锁共存且满足事务隔离性的要求。
③ 自增锁(auto-inc 锁)
在使用MySQL过程中,我们可以为表的某个列添加AUTO_INCREMENT属性。举例:
CREATE table `teacher`( `id` int not null auto_increment, `name` varchar(255) not null, primary key(`id`) )engine=innodb default charset=utf8mb4 collate=utf8mb4_0900_ai_ci
由于这个表的id字段声明了AUTO_INCREMENT,意味着在书写插入语句时不需要为其赋值,SQL语句修改如下所示:
insert into `teacher` (name) values ('zhangsan'),('lisi');
上边的插入语句并没有为id列显式赋值,所以系统会自动为它赋上递增的值。
现在我们看到的上面插入数据只是一种简单的插入模式,所有插入数据的方式总共分为三类,分别是“Simple inserts”,“Bulk inserts” 和“Mixed-mode inserts”。
1.“Simple inserts”(简单插入)
可以预先确定要插入的行数(当语句被初始处理时)的语句。包括没有嵌套子查询的单行和多行insert ...values()
和replace语句。比如我们上面举的例子就属于该类插入,已经确定要插入的行数。
2.“Bulk inserts”(批量插入)
事先不知道要插入的行数(和所需自动递增值得数量)的语句。比如insert...select,replate ...select 和 load data语句。但不包括纯insert。InnoDB在每处理一行,为AUTO_INCREMENT列分配一个新值。
3.“Mixed-mode inserts”(混合模式插入)
这些事“Simple inserts”语句但是指定部分新行的自动递增值。例如 insert into teacher (id,name) values (1,'a'),(NULL,'b'),(5,'c'),(NULL,'d'); 只是指定了部分id的值。另一种类型的“混合模式插入”是 insert ... on duplicate key update 。
对于上面数据插入的案例,MySQL采用了自增锁的方式来实现,AUTO-INC 锁是当向使用含有AUTO_INCREMENT列的表中插入数据时需要获取的一种特殊的表级锁。在执行插入语句时就在表级别加一个AUTO-INC锁,然后为每条待插入记录的AUTO-INCREMENT修饰的列分配递增的值,在该语句执行结束后,再把AUTO-INC锁释放掉。一个事务在持有AUTO-INC锁的过程中,其他事务的插入语句都要被阻塞,可以保证一个语句中分配的递增值是连续的。也正因为如此,其并发性显然不高,当我们向一个有AUTO-INCREMENT 关键字的主键插入值得时候,每条语句都要对整个表锁进行竞争,这样的并发潜力其实是很低下的,所以InnoDB通过 innodb_autoinc_lock_mode 的不同取值来提供不同的锁定机制,来显著提高SQL语句的可伸缩性和性能。
innodb_autoinc_lock_mode 有三种取值,分表对应于不同锁定模式:
innodb_autoinc_lock_mode =0 (传统锁定模式)
innodb_autoinc_lock_mode =1 (连续锁定模式)
innodb_autoinc_lock_mode =2 (交错锁定模式)
innodb_autoinc_lock_mode =0 (传统锁定模式)
在此锁定模式下,所有类型的insert语句都会获得一个特殊的表级 AUTO-INC 锁,用于插入具有AUTO_INCREMENT列的表。这种模式其实就如我们上面的例子,即每当执行insert的时候,都会得到一个表级锁(AUTO-INC锁),使得语句中生成的auto_increment为顺序,且在binlog中重放的时候,可以保证master与slave中数据的auto_increment是相同的。因为是表级锁,当在同一时间多个事务中执行insert的时候,对于AUTO-INC锁的争夺会限制并发能力。
innodb_autoinc_lock_mode =1 (连续锁定模式)
在MySQL8.0之前,连续锁定模式是默认的。
在这个模式下,“bulk inserts”仍然使用AUTO-INC锁,并保持到语句结束。这适用于所有 insert ... select , replate ... select 和 load data语句。同一时刻只有一个语句可以持有AUTO-INC锁。
对于“Simple inserts”(要插入的行数事先已知),则通过在mutex(轻量锁)的控制下获得所需数量的自动递增值来避免表级AUTO-INC锁,它只在分配过程的持续时间内保持,而不是直到语句完成。不使用表级AUTO0INC锁,除非AUTO-INC 锁由另一个事务保持。如果另一个事务保持AUTO-INC锁,则“Simple inserts”等待AUTO-INC锁,如同它是一个“bulk inserts”。
innodb_autoinc_lock_mode =2 (交错锁定模式)
从MySQL8.0开始,交错锁定模式是默认设置。
在这种锁定模式下,所有类insert语句都不会使用表级AUTO-INC锁,并且可以同时执行多个语句。这是最快和最可扩展的锁定模式。但是当使用基于语句的复制或恢复方案时,从二进制日志重播SQL语句时,这是不安全的。
在此锁定模式下,自动递增值保证在所有并发执行的所有类型的insert语句中是唯一且单调递增的。但是由于多个语句可以同时生成数字(即,跨语句交叉编号),为任何给定语句插入的行生成的值可能不是连续的。
如果执行的语句时“simple inserts”,其中要插入的行数已提前知道,除了“Mixed-mode inserts”之外,为单个语句生成的数字不会有问题。然后,当执行“bulk inserts”时,在由任何给定语句分配的自动递增值中可能存在间隙。
④ 元数据锁(MDL锁)
MySQL5.5引入了meta data lock,简称MDL锁,属于表锁范畴。MDL的作用是,保证读写的正确性。比如如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,增加了一列,那么查线程拿到的结果跟表结构对不上,肯定是不行的。
因此,当对一个表做增删改查操作的时候,加MDL读锁;当要对表做结构变更操作的时候,加MDL写锁。
读锁之间不互斥,因此你可以有多个线程同时对一张表增删改查。读写锁之间、写锁之间是互斥的,用来保证变更表结构操作的安全性,解决了DML和DDL操作之间的一致性问题。不需要显式使用,在访问一个表的时候会被自动加上。
举例,会话A开启事务,执行update语句,但是不提交事务:
begin; update mylock set name='tom' where id=1;
会话B尝试进行DDL操作:
begin; alter table mylock add age int;
此时会话B会阻塞(直到会话A提交),在另外会话执行 show processlist
可以看到在等待MDL锁。
② InnoDB中的行锁
行锁(Row Lock)也称为记录锁,顾名思义,就是锁住某一行(某条记录row)。需要注意的是,MySQL服务器层并乜有实现行锁机制,行级锁只在存储引擎层实现。
优点: 锁定粒度小,发生锁冲突概率低,可以实现的并发度高。
缺点:对于锁的开销比较大,加锁会比较慢,容易出现死锁情况。
InnoDB与MyISAM的最大不同有两点:一是支持事务(transaction),而是采用了行级锁。
首先我们创建表如下,并插入几条记录。
create table student( id int, name varchar(20), class varchar(10), primary key(id) )engine=innodb charset=utf8mb4;
student表的聚簇索引的简图如下所示:
这里把B+树的索引结构做了一个超级简化,只把索引中的记录给拿了出来,下面我们学习常见的行锁类型。
① 记录锁(Record Locks)
记录锁也就是仅仅把一条记录锁上,官方的类型名称为:LOCK_REC_NOT_GAP
。比如我们把id值为8的那条记录加一个记录锁的示意图如图所示。仅仅是锁住了id为8的记录,对周围的数据没有影响。
记录锁是有S锁和X锁之分的,称之为S型记录锁和X型记录锁。
当一个事务获取了一条记录的S型记录锁后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁。
当一个事务获取了一条记录的X型记录锁后,其他事务既不可以继续获取该记录的S型记录锁,也不可以继续获取X型记录锁。
② 间隙锁(Gap Locks)
MySQL在REPEATABLE READ 隔离级别下是可以解决幻读问题的,解决方案有两种:可以使用MVCC方案解决,也可以采用加锁方案解决。但是在使用加锁方案解决时有个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁。InnoDB提出了一种称之为Gap Locks的锁,官方的类型名称为:LOCK_GAP,我们可以简称为gap锁。
有两种情况可以产生间隙锁:
InnoDB使用相等条件请求给一个不存在的记录加锁,InnoDB会使用间隙锁。
当我们用范围条件而不是相等条件检索数据,并请求共享或排他锁时,InnoDB会给符合条件的已有数据记录的 索引项加锁。对于键值在条件范围内但并不存在的记录,叫做“间隙(GAP)”,InnoDB也会对这个“间隙”加锁,这种锁机制就是所谓的间隙锁 。
比如把id值为8的那条记录加一个gap锁的示意图如下。
图中id值为8的记录加了gap锁,意味着不允许别的事务在id值为8的记录前边的间隙插入新纪录,其实就是id列的值(3,8)这个区间的新纪录是不允许立即插入的。比如,有另外一个事务再想插入一条id值为4的新纪录,它定位到该条新记录的下一条记录的id值为8,而这条记录上又有一个gap锁,所以就会阻塞插入操作,直到拥有这个gap锁的事务提交了之后,id列的值再区间(3,8)中的新纪录才可以被插入。
gap锁的提出仅仅是为了防止插入幻影记录而提出的。虽然有共享gap锁和独占gap锁这样的说法,但是它们起到的作用是相同的。而且如果对一条记录加了gap锁(不论是共享gap锁还是独占gap锁),并不会限制其他事务对这条记录加记录锁或者继续加gap锁。Session1Session2select * from student where id=5 lock in share mode;select * from student where id=5 for update;
这里session2并不会被堵住。因为表里并没有id=5这个记录,因此session1加的是间隙锁(3,8)。而session2也是在这个间隙加的间隙锁。它们有共同的目标,即:保证这个间隙,不允许插入值。但,它们之间是不冲突的。
注意,给一条记录加了gap锁只是不允许其他事务往这条记录前边的间隙插入新纪录,那对于最后一条记录之后的间隙,也就是student表中id值为20的记录之后的间隙该咋办呢?也就是说给哪条记录加gap锁才能阻止其他事务插入id值在(20,+∞)这个区间的新纪录呢?这时候我们在讲数据页时介绍的两条伪记录派上用场了:
Infimum记录,表示该页面中最小的记录。
Supremum记录,表示该页面中最大的记录。
为了实现阻止其他事务插入id值在(20,+∞)这个区间的新纪录,我们可以给索引中的最后一条记录,也就是id值为20的那条记录所在页面的Supremum记录加上一个gap锁,如图所示。
begin ; select * from student where id>20 lock in share mode;
MySQL8下可以使用如下语句查看间隙锁:
select * from performance_schema.data_locks dl
这样就可以阻止其他事务插入id值在(20,+∞)这个区间的新纪录。
间隙锁的引入,可能会导致同样的语句锁住更大的范围,这其实是影响了并发度的。下面的例子会产生死锁。
1.session1执行select … for update语句,由于id=5这一行并不存在,因此会加上间隙锁(3,8);
2.session2执行select … for update语句,同样会加上间隙锁(3,8),间隙锁之间不会冲突,因此这个语句可以执行成功;
3.session 2试图插入一行id为5的数据,被session 1的间隙锁挡住了,只好进入等待;
session 1试图插入一行id为5的数据,被session 2 的间隙锁挡住了。至此,两个session进入相互等待状态,形成死锁。当然,InnoDB的死锁检测马上就发现了这对死锁关系,让session1的insert语句报错返回。
间隙锁有一个致命的弱点就是当锁定一个范围键值之后,即使某些不存在的键值也会被无辜的锁定,而造成在锁定的时候无法插入锁定键值范围内的任何数据。在某些场景下这可能会对性能造成很大的危害。
Gap锁设计的目的是为了阻止多个事务将记录插入到同一范围内(而这会导致幻读问题的产生)。有两种方式显式关闭gap锁:(除了外键约束和唯一性检查外,其余情况仅使用record lock):
A.将事务隔离级别设置为RC
B. 将参数innodb_locks_unsafe_for_binlog设置为1
③ 临键锁(Next-Key Locks)
有时候我们既想锁住某条记录,又想阻止其他事务在该记录前边的间隙插入新记录,所以InnoDB就提出了一种称之为Next-Key Locks的锁,官方的类型名称为:LOCK_ORDINARY,我们也可以简称为next-key锁。Next-Key Locks是在存储引擎InnoDB、事务级别在可重复度的情况下使用的数据库锁,InnoDB默认的锁就是Next-Key Locks。
比如我们把id值为8的那条记录加一个next-key锁的示意图如下:
next-key锁的本质就是一个记录锁和一个gap锁的合体
,它既能保护该条记录,又能阻止别的事务将新记录插入被保护记录前边的间隙。
begin; select * from student where id<=8 and id >3 for update;
④ 插入意向锁(Insert Intention Locks)
我们说一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了gap锁(next-key锁也包含gap锁)。如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交。但是InnoDB规定事务在等待的时候也需要在内存中生成一个锁结构,表明有事务想在某个间隙中插入新记录,但是现在在等待。InnoDB就把这种类型的锁命名为Insert Intention Locks,官方的类型名称为:LOCK_INSERT_INTENTION,,我们称为插入意向锁。插入意向锁是一种gap锁,不是意向锁,在insert操作时产生。
插入意向锁是在插入一条记录行前,由insert操作产生的一种间隙锁。该锁用以表示插入意向,当多个事务在同一区间(gap)插入位置不同的多条数据时,事务之间不需要互相等待。假设存在两条值分别为4和7的记录,两个不同的事务分别试图插入值为5和6的两条记录,每个事务在获取插入行上独占的(排他)锁前,都会获取(4,7)之间的间隙锁。但是因为数据行之间并不冲突,所以两个事务之间并不会产生冲突(阻塞等待)。
总结来说,插入意向锁的特性可以分成两部分:
插入意向锁是一种特殊的间隙锁–间隙锁可以锁定开区间内的部分记录
插入意向锁之间互不排斥,所以即使多个事务在同一区间插入多条记录,只要记录本身(主键、唯一索引)不冲突,那么事务之间就不会出现冲突等待。
注意,虽然插入意向锁中含有意向锁三个字,但是它并不属于意向锁而属于间隙锁,因为意向锁是表锁而插入意向锁是行锁。
比如,把id值为8的那条记录加一个插入意向锁的示意图如下:
比如,现在T1为id值为8的记录加了一个gap锁,然后T2和T3分别想向 student表中插入id值分别为4/5的两条记录,所以现在为id值为8的记录加的锁的示意图就如下所示:
从图中可以看到,由于T1持有gap锁,所以T2和T3需要生成一个插入意向锁的锁结构并且处于等待状态。当T1提交后会把它获取到的锁都释放掉,这样T2和T3就能获取到对应的插入意向锁了(本质上就是把插入意向锁对应索结构的is_waiting属性改为false),T2和T3之间也并不会相互阻塞,它们可以同时获取到id值为8的插入意向锁,然后执行插入操作。事实上插入意向锁并不会阻止别的事务继续获取该记录上任何类型的锁。
③ 页锁
页锁就是在页的粒度上进行锁定,锁定的数据资源比行锁要多,因为一个页中可以有多个行记录。当我们使用页锁的时候,会出现数据浪费的现象,但这样的浪费最多也就是一个页上的数据行。页锁的开销介于表锁和行锁之间,会出现死锁。锁定粒度介于表锁和行锁之间,并发度一般。
每个层级的锁数量是有限制的,因为锁会占用内存空间,锁空间的大小是有限的。当某个层级的锁数量超过了这个层级的阈值时,就会进行锁升级。锁升级就是用更大粒度的锁替代多个更小粒度的锁,比如InnoDB中行锁升级为表锁,这样做的好处是占用的锁空间降低了,但同时数据的并发度也下降了。
【4】从对待锁的态度划分:乐观锁、悲观锁
从对待锁的态度来看锁的话,可以将锁分成乐观锁和悲观锁,从名字中也可以看出这两种锁是两种看待数据并发的思维方式。需要注意的是,乐观锁和悲观锁并不是锁,而是锁的设计思路。
① 悲观锁(Pessimistic Locking)
悲观锁是一种思想,顾名思义,就是很悲观,对数据被其他事务的修改持保守态度,会通过数据库自身的锁机制来实现,从而保证数据操作的排他性。
悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会阻塞直到它拿到锁(共享资源每次只给一个线程使用,其他线程阻塞,用完后再把资源转让给其他线程)。比如行锁、表锁、写锁、读锁等,都是在做操作之前先上锁,当其他线程想要访问数据时,都需要阻塞挂起。Java中synchronized 和ReentrantLock等独占锁就是悲观锁思想的实现。
如下所示,我们查询时候可以使用排他锁。
select quantity from items where id=1001 for update;
当执行select quantity from items where id=1001 for update; 语句之后,如果在其他事务中执行select quantity from items where id=1001;语句,并不会受第一个事务的影响,仍然可以正常查询出数据。
注意,select ... for update 语句执行过程中所有扫描的行都会被锁上,因此在MySQL中用悲观锁必须确定使用了索引,而不是全表扫描,否则将会把整个表锁住。
悲观锁不适用的场景较多,它存在一些不足。因为悲观锁大多数情况下依靠数据库的锁机制来实现,以保证程序的并发访问性,同时这样对数据库性能开销影响也很大,特别是长事务而言,这样的开销往往无法承受,这时就需要乐观锁。
② 乐观锁(Optimistic Locking)
乐观锁认为对同一数据的并发操作不会总发生,属于小概率事件,不用每次都对数据上锁。但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,也就是不采用数据库自身的锁机制,而是通过程序来实现。在程序上,我们可以采用版本号机制或者CAS机制实现。乐观锁适用于多读的应用类型,这样可以提高吞吐量。在Java中java.util.concurrent.atomic包下的原子变量类就是使用了乐观锁的一种实现方式:CAS实现的。
① 乐观锁的版本号机制
用数据版本(Version)记录机制实现,这是乐观锁最常用的一种实
何谓数据版本?即 为数据增加一个版本标识,一般是通过为数据库表增加一个数字类型的 “version” 字段来实 现。当读取数据时,将version字段的值一同读出,数据每更新一次,对此version值加1。
update ... set version=version+1 where version=version;
当我 们提交更新的时候,判断数据库表对应记录的当前版本信息与第一次取出来的version值进行比 对,如果数据库表当前版本号与第一次取出来的version值相等,则予以更新,否则认为是过期 数据。
select id,value,version from TABLE where id=#{id} # 每次更新表中的value字段时,为了防止发生冲突,需要这样操作 update TABLE set value=2,version=version+1 where id=#{id} and version=#{version};
这种方式类似我们熟悉的SVN、CVS版本管理系统,当我们修改了代码进行提交时,首先会检测当前版本号与服务器上的版本号是否一致,如果一致就可以直接提交,如果不一致就需要更新服务器上的最新代码,然后再进行提交。
② 乐观锁的时间戳机制
时间戳和版本号机制一样,也是在更新提交的时候,将当前数据的时间戳和更新之前取得的时间戳进行比较,如果两者一致则更新成功,否则就是版本冲突。
基本实践是通过给数据行增加一个戳(版本号或者时间戳),从而证明当前拿到的数据是否最新。
③ 两种锁的适用场景
从这两种锁的设计思想中,我们总结一下乐观锁和悲观锁的适用场景:
乐观锁适合读操作多的场景,相对来说写的操作比较少。它的优点在于程序实现,不存在死锁问题。不过适用场景也会相对乐观,因为它阻止不了除了程序以为的数据库操作。
悲观锁适合写操作多的场景,因为写的操作具有排它性。采用悲观锁的方式,可以在数据库层面阻止其他事务对该数据的操作权限,防止“读-写”和“写-写”冲突。
我们把乐观锁和悲观锁总结如下图所示。
【5】总结
① 间隙锁加锁规则
间隙锁是在可重复读隔离级别下才会生效的:next-key lock实际上是由间隙锁加行锁实现的。如果切换到读提交隔离级别(read-committed)的话就好理解了,过程中去掉间隙锁的部分,也就是只剩下行锁的部分。而在读提交隔离级别下间隙锁就没有了,为了解决可能出现的数据和日志不一致问题,需要把binlog格式设置为row。也就是说,许多公司的配置为:读提交隔离级别+binlog_format=row。业务不需要可重复读的保证,这样考虑到读提交下操作数据的锁范围更小(没有间隙锁),这个选择是合理的。
next-key lock的加锁规则
总结的加锁规则里面,包含了两个“原则”,两个“优化”和一个"bug"。
原则1:加锁的基本单位是next-key lock,其是前开后闭区间。
原则2:查找过程中访问到的对象才会加锁。任何辅助索引上的锁,或者非索引列上的锁,最终都要回溯到主键上,在逐渐上也要加一把锁。
优化1:索引上的等值查询,给唯一索引加锁的时候,next-key lock退化为行锁。也就是说如果InnoDB扫描的是一个主键、或是一个唯一索引的话,那InnoDB只会采用行锁方式来加锁。
优化2:索引上(不一定是唯一索引)的等值查询,向右遍历时且最后一个值不满足等值条件的时候,next-key lock退化为间隙锁。
一个bug:唯一索引上的范围查询会访问到不满足条件的第一个值为止。
② 隔离级别与锁的关系
在Read Uncommitted级别下,读取数据不需要加共享锁,这样就不会跟被修改的数据上的排他锁冲突。
在Read Committed级别下,读操作需要加共享锁,但是在语句执行完以后释放共享锁。
在Repeatable Read级别下,读操作需要加共享锁,但是在事务提交之前并不释放共享锁,也就是必须等待事务执行完毕以后才释放共享锁。
SERIALIZABLE 是限制性最强的隔离级别,因为该级别锁定整个范围的键,并一直持有锁,直到事务完成。
③ 优化建议
- 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
- 合理设计索引,尽量减小锁的范围;
- 尽可能减少检索条件,避免间隙锁;
- 尽量控制事务大小,减少锁定资源量和时间长度;
- 尽可能低级别事务隔离