MySql八股文知识点总结,一篇文章让mysql成为面试加分项

MySql八股文知识点总结(自检)

1.前言

参与了几次中大厂的面试,你会发现一面时对于八股文的考察也具有侧重点(MySQL=Redis > 网络 > 系统 >设计模式 > java集合 >spring)

本文的目标就是通过这一篇文章让你能在面试时将MySQL相关的问题回答漂亮。

所以整理问题时,本文会从一个问题出发(面试官会问),联想出更多问题(面试官可能会追问,也可以自己说:我还知道。。。)以求加分。(当你对一块知识了解的比较好时,就要想办法拉长这块内容的面试时长)

文章目录

  • MySql八股文知识点总结(自检)
    • 1.前言
    • 2.知识点
      • MySQL 执行流程是怎样的?
        • 第一步:通过连接器连接 MySQL 服务
        • 第二步:查询缓存
        • 第三步:解析SQL
        • 第四步:执行 SQL
          • 预处理器
          • 优化器
          • 执行器
          • MySQL 执行流程是怎样的?总结:
          • 什么是索引?
          • 索引优化有哪些方法?
          • 事务有哪些特性?
          • 并行事务会引发什么问题?
          • 事务的隔离级别有哪些?
          • Read View 在 MVCC 里如何工作的?
          • 可重复读是如何工作的?
          • 读提交是如何工作的?
          • 「读提交」和「可重复读」实现方式有什么区别?
          • 幻读被完全解决了吗?
          • MySQL 有哪些锁?
            • 全局锁是怎么用的?
            • 表级锁有哪些?怎么用的?
              • **表锁的使用:**
              • **元数据锁(MDL)的使用:**
              • **意向锁的使用:**
              • AUTO-INC 锁的使用:
              • 行级锁有哪些?怎么用的?
                • Record Lock
                • Gap Lock
                • Next-Key Lock
                • 插入意向锁
                • MySQL 日志:undo log、redo log、binlog 有什么用?
                  • 为什么需要 undo log?
                  • 为什么需要 redo log ?
                  • 为什么需要 binlog ?
                  • MySQL 磁盘 I/O 很高,有什么优化的方法?

                    2.知识点

                    MySQL 执行流程是怎样的?

                    首先要知道的是,我们可以把mysql分成两层,server层和数据库引擎层,前者主要是对我们的查询进行处理(主要包括**{连接器},{查询缓存}、{解析器}、{预处理器、优化器、执行器}**等),后者是数据真正存储的地方(从 MySQL 5.5 版本开始, InnoDB 成为了 MySQL 的默认存储引擎)。

                    一条查询的执行流程如下:

                    第一步:通过连接器连接 MySQL 服务

                    mysql -h$ip -u$user -p

                    [连接器联想1]: 连接经过TCP 三次握手,断开经过四次挥手

                    [连接器联想2] : 如果用户密码都没有问题,连接器就会获取该用户的权限,然后保存起来,后续该用户在此连接里的任何操作,都会基于连接开始时读到的权限进行权限逻辑的判断,意思是管理员修改已登录用户的权限需要等他重新登录才生效

                    [连接器联想3] : 如何查看 MySQL 服务被多少个客户端连接了?show processlist

                    [连接器联想4]: 空闲连接会一直占用着吗?MySQL 定义了空闲连接的最大空闲时长,由 wait_timeout 参数控制的,默认值是 8 小时(28880秒),如果空闲连接超过了这个时间,连接器就会自动将它断开。

                    [连接器联想5]: MySQL 的连接数有限制吗?最大连接数由 max_connections 参数控制,超过这个值,系统就会拒绝接下来的连接请求,并报错提示“Too many connections”。

                    [连接器联想6]: 怎么解决长连接占用内存的问题?MySQL 的连接也跟 HTTP 一样,有短连接和长连接的概念,长连接的好处就是可以减少建立连接和断开连接的过程,但是,使用长连接后可能会占用内存增多,因为 MySQL 在执行查询过程中临时使用内存管理连接对象,这些连接对象资源只有在连接断开时才会释放。有两种解决方式。第一种,定期断开长连接。第二种,客户端主动重置连接。MySQL 5.7 版本实现了 mysql_reset_connection() 函数的接口来重置连接,达到释放内存的效果。这个过程不需要重连和重新做权限验证,但是会将连接恢复到刚刚创建完时的状态。

                    [连接器联想7]: 连接器的工作?与客户端进行 TCP 三次握手建立连接;校验客户端的用户名和密码,如果用户名或密码不对,则会报错;如果用户名和密码都对了,会读取该用户的权限,然后后面的权限逻辑判断都基于此时读取到的权限;

                    第二步:查询缓存

                    连接器得工作完成后,客户端就可以向 MySQL 服务发送 SQL 语句了,MySQL 服务收到 SQL 语句后,就会解析出 SQL 语句的第一个字段,看看是什么类型的语句。

                    如果 SQL 是查询语句(select 语句),MySQL 就会先去查询缓存( Query Cache )里查找缓存数据。

                    但是其实查询缓存挺鸡肋的。对于更新比较频繁的表,查询缓存的命中率很低的,因为只要一个表有更新操作,那么这个表的查询缓存就会被清空。

                    所以,MySQL 8.0 版本直接将server层查询缓存删掉了。

                    第三步:解析SQL

                    在正式执行 SQL 查询语句之前, MySQL 会先对 SQL 语句做解析,这个工作交由「解析器」来完成。

                    解析器会做两件事情:词法分析、 语法分析。

                    [解释器联想1]: 词法分析:MySQL 会根据你输入的字符串识别出关键字出来,例如,SQL语句 select username from userinfo,在分析之后,会得到4个Token,其中有2个Keyword,分别为select和from.

                    [解释器联想2]: 语法分析:根据词法分析的结果,语法解析器会根据语法规则,判断你输入的这个 SQL 语句是否满足 MySQL 语法,如果没问题就会构建出 SQL 语法树,这样方便后面模块获取 SQL 类型、表名、字段名、 where 条件等等。

                    [解释器联想3]: 解如果我们输入的 SQL 语句语法不对,就会在解析器这个阶段报错。(释器的主要作用)

                    [解释器联想4] : 解释器只负责检查语法和构建语法树,但是不会去查表或者字段存不存在。

                    第四步:执行 SQL

                    解析SQL无误后,执行SQL需要经过三个步骤:预处理器、优化器、执行器。

                    预处理器
                    • 检查 SQL 查询语句中的表或者字段是否存在;
                    • 将 select * 中的 * 符号,扩展为表上的所有列;
                      优化器

                      优化器主要负责将 SQL 查询语句的执行计划确定下来,比如在表里面有多个索引的时候,优化器会基于查询成本的考虑,来决定选择使用哪个索引。

                      [优化器联想1] : 要想知道优化器选择了哪个索引,我们可以在查询语句最前面加个 explain 命令,这样就会输出这条 SQL 语句的执行计划。explain select * from product where id = 1

                      [优化器联想2 ] : 一般来讲普通索引查询效率高于主键索引,当索引覆盖时会先考虑普通索引的B+树上查询,这就是执行计划,是优化器决定的。

                      执行器

                      确定了执行计划,接下来 MySQL 就真正开始执行语句了,在执行的过程中,执行器就会和存储引擎交互了,交互是以记录为单位的。

                      • 主键索引查询 select * from product where id = 1; 让InnoDB引擎通过主键索引B+树搜索id=1的记录。
                      • 全表扫描 select * from product where name = 'iphone'; 查询条件没有用到索引,触发全表扫描,查询每一条记录判断是否满足条件。
                      • 索引下推 (MySQL 5.6 推出的查询优化策略)

                        [索引下推联想1]: 索引下推能够减少二级索引在查询时的回表操作,提高查询的效率,因为它将 Server 层部分负责的事情,交给存储引擎层去处理了。select * from t_user where age > 20 and reward = 100000;不使用索引下推(MySQL 5.6 之前的版本)时,定位到 age > 20 的一条记录,获取主键值,然后进行回表操作,将完整的记录返回给 Server 层,Server 层再判断该记录的 reward 是否等于 100000。而使用索引下推后,判断记录的 reward 是否等于 100000 的工作交给了存储引擎层:定位到 age > 20 的第一条记录,存储引擎定位到二级索引后,先不执行回表操作,而是先判断一下该索引中包含的列(reward列)的条件(reward 是否等于 100000)是否成立。如果条件不成立,则直接跳过该二级索引。如果成立,则执行回表操作,将完成记录返回给 Server 层。

                        MySQL 执行流程是怎样的?总结:

                        (总结只是简单总结,也就是被问到时该说的,上面的知识点,是可能被追问时涉及的,或者自己说出来的加分项。)

                        • 连接器:建立连接,管理连接、校验用户身份;
                        • 查询缓存:查询语句如果命中查询缓存则直接返回,否则继续往下执行。MySQL 8.0 已删除该模块;
                        • 解析 SQL,通过解析器对 SQL 查询语句进行词法分析、语法分析,然后构建语法树,方便后续模块读取表名、字段、语句类型;
                        • 执行 SQL:执行 SQL 共有三个阶段:
                          • 预处理阶段:检查表或字段是否存在;将 select * 中的 * 符号扩展为表上的所有列。
                          • 优化阶段:基于查询成本的考虑, 选择查询成本最小的执行计划;
                          • 执行阶段:根据执行计划执行 SQL 查询语句,从存储引擎读取记录,返回给客户端;

                            什么是索引?

                            索引的定义就是帮助存储引擎快速获取数据的一种数据结构,形象的说就是索引是数据的目录。

                            我们可以按照四个角度来分类索引。(概念是交叉的)

                            • 按「数据结构」分类:B+tree索引、Hash索引、Full-text索引。
                            • 按「物理存储」分类:聚簇索引(主键索引)、二级索引(辅助索引)。
                            • 按「字段特性」分类:主键索引、唯一索引、普通索引、前缀索引。
                            • 按「字段个数」分类:单列索引、联合索引。

                              [索引联想1]:按数据结构分,要掌握B+树索引,为什么不采用Hash、二叉查找树、红黑树。

                              B+Tree 是一种多叉树,叶子节点才存放数据,非叶子节点只存放索引,而且每个节点里的数据是按主键顺序存放的。每一层父节点的索引值都会出现在下层子节点的索引值中,因此在叶子节点中,包括了所有的索引值信息,并且每一个叶子节点都有两个指针,分别指向下一个叶子节点和上一个叶子节点,形成一个双向链表。

                              B+Tree 相比于 B 树和二叉树来说,最大的优势在于查询效率很高,因为即使在数据量很大的情况,查询一个数据的磁盘 I/O 依然维持在 3-4次。

                              B+Tree vs B Tree:B+Tree 只在叶子节点存储数据,而 B 树 的非叶子节点也要存储数据,所以 B+Tree 的单个节点的数据量更小,在相同的磁盘 I/O 次数下,就能查询更多的节点。

                              另外,B+Tree 叶子节点采用的是双链表连接,适合 MySQL 中常见的基于范围的顺序查找,而 B 树无法做到这一点。

                              B+Tree vs 二叉树:对于有 N 个叶子节点的 B+Tree,其搜索复杂度为O(logdN),其中 d 表示节点允许的最大子节点个数为 d 个。

                              在实际的应用当中, d 值是大于100的,这样就保证了,即使数据达到千万级别时,B+Tree 的高度依然维持在 3~4 层左右,也就是说一次数据查询操作只需要做 3~4 次的磁盘 I/O 操作就能查询到目标数据。

                              而二叉树的每个父节点的儿子节点个数只能是 2 个,意味着其搜索复杂度为 O(logN),这已经比 B+Tree 高出不少,因此二叉树检索到目标数据所经历的磁盘 I/O 次数要更多。

                              B+Tree vs Hash:Hash 在做等值查询的时候效率贼快,搜索复杂度为 O(1)。

                              但是 Hash 表不适合做范围查询,它更适合做等值的查询,这也是 B+Tree 索引要比 Hash 表索引有着更广泛的适用场景的原因。

                              [索引联想2]:回表、索引覆盖

                              在查询时使用了二级索引,如果查询的数据能在二级索引里查询的到,那么就不需要回表,这个过程就是覆盖索引。如果查询的数据不在二级索引里,就会先检索二级索引,找到对应的叶子节点,获取到主键值后,然后再检索主键索引,就能查询到数据了,这个过程就是回表。

                              [索引联想3]:

                              主键索引就是建立在主键字段上的索引,通常在创建表的时候一起创建,一张表最多只有一个主键索引,索引列的值不允许有空值。

                              唯一索引建立在 UNIQUE 字段上的索引,一张表可以有多个唯一索引,索引列的值必须唯一,但是允许有空值。

                              普通索引就是建立在普通字段上的索引,既不要求字段为主键,也不要求字段为 UNIQUE。

                              前缀索引是指对字符类型字段的前几个字符建立的索引,而不是在整个字段上建立的索引,前缀索引可以建立在字段类型为 char、 varchar、binary、varbinary 的列上。

                              使用前缀索引的目的是为了减少索引占用的存储空间,提升查询效率。

                              [索引联想4]:通过将多个字段组合成一个索引,该索引就被称为联合索引。联合索引查询的 B+Tree 是先按 第一关键字进行排序,然后再 第一关键字 相同的情况再按 第二关键字 字段排序。因此,使用联合索引时,存在最左匹配原则,也就是按照最左优先的方式进行索引的匹配。在使用联合索引进行查询的时候,如果不遵循「最左匹配原则」,联合索引会失效,这样就无法利用到索引快速查询的特性了。

                              [索引联想5]:索引失效,联合索引的最左匹配原则,在遇到范围查询(如 >、<)的时候,就会停止匹配,也就是范围查询的字段可以用到联合索引,但是在范围查询字段的后面的字段无法用到联合索引。注意,对于 >=、<=、BETWEEN、like 前缀匹配的范围查询,并不会停止匹配。

                              [索引联想6]: MySQL 5.6 引入的索引下推优化(index condition pushdown), 可以在联合索引遍历过程中,对联合索引中包含的字段先做判断,直接过滤掉不满足条件的记录,减少回表次数。

                              [索引联想7]:建立联合索引时,要把区分度大的字段排在前面,这样区分度大的字段越有可能被更多的 SQL 使用到。

                              [索引联想8]:索引的缺点:

                              • 需要占用物理空间,数量越大,占用空间越大;
                              • 创建索引和维护索引要耗费时间,这种时间随着数据量的增加而增大;
                              • 会降低表的增删改的效率,因为每次增删改索引,B+ 树为了维护索引有序性,都需要进行动态维护。

                                [索引联想8]:什么时候适用索引?

                                • 字段有唯一性限制的,比如商品编码;
                                • 经常用于 WHERE 查询条件的字段,这样能够提高整个表的查询速度,如果查询条件不是一个字段,可以建立联合索引。
                                • 经常用于 GROUP BY 和 ORDER BY 的字段,这样在查询的时候就不需要再去做一次排序了,因为我们都已经知道了建立索引之后在 B+Tree 中的记录都是排序好的。

                                  [索引联想9]:什么时候不适用索引?

                                  • WHERE 条件,GROUP BY,ORDER BY 里用不到的字段,索引的价值是快速定位,如果起不到定位的字段通常是不需要创建索引的,因为索引是会占用物理空间的。
                                  • 字段中存在大量重复数据,不需要创建索引,比如性别字段,只有男女,如果数据库表中,男女的记录分布均匀,那么无论搜索哪个值都可能得到一半的数据。在这些情况下,还不如不要索引,因为 MySQL 还有一个查询优化器,查询优化器发现某个值出现在表的数据行中的百分比很高的时候,它一般会忽略索引,进行全表扫描。
                                  • 表数据太少的时候,不需要创建索引;
                                  • 经常更新的字段不用创建索引,比如不要对电商项目的用户余额建立索引,因为索引字段频繁修改,由于要维护 B+Tree的有序性,那么就需要频繁的重建索引,这个过程是会影响数据库性能的。

                                    索引优化有哪些方法?

                                    这里说一下几种常见优化索引的方法:

                                    • 前缀索引优化;
                                    • 覆盖索引优化;
                                    • 主键索引最好是自增的;
                                    • 索引最好设置为 NOT NULL
                                    • 防止索引失效;

                                      [索引优化联想1]:前缀索引有一定的局限性,例如:

                                      • order by 就无法使用前缀索引;
                                      • 无法把前缀索引用作覆盖索引;

                                        [索引优化联想2]:只需要查询少量字段,对这些字段创建联合索引 -> 覆盖索引,不回表。

                                        [索引优化联想3]:如果我们使用自增主键,那么每次插入的新数据就会按顺序添加到当前索引节点的位置,不需要移动已有的数据,当页面写满,就会自动开辟一个新页面。因为每次插入一条新记录,都是追加操作,不需要重新移动数据,因此这种插入数据的方法效率非常高。

                                        如果我们使用非自增主键,由于每次插入主键的索引值都是随机的,因此每次插入新的数据时,就可能会插入到现有数据页中间的某个位置,这将不得不移动其它数据来满足新数据的插入,甚至需要从一个页面复制数据到另外一个页面,我们通常将这种情况称为页分裂。页分裂还有可能会造成大量的内存碎片,导致索引结构不紧凑,从而影响查询效率。

                                        [索引优化联想4]:发生索引失效的情况:

                                        • 当我们使用左或者左右模糊匹配的时候,也就是 like %xx 或者 like %xx%这两种方式都会造成索引失效;
                                        • 当我们在查询条件中对索引列做了计算、函数、类型转换操作,这些情况下都会造成索引失效;
                                        • 联合索引要能正确使用需要遵循最左匹配原则,也就是按照最左优先的方式进行索引的匹配,否则就会导致索引失效。
                                        • 在 WHERE 子句中,如果在 OR 前的条件列是索引列,而在 OR 后的条件列不是索引列,那么索引会失效。

                                          [索引优化联想5]:对于执行计划(explain+查询),参数有:

                                          • possible_keys 字段表示可能用到的索引;
                                          • key 字段表示实际用的索引,如果这一项为 NULL,说明没有使用索引;
                                          • key_len 表示索引的长度;
                                          • rows 表示扫描的数据行数。
                                          • type 表示数据扫描类型,我们需要重点看这个。

                                            type 字段就是描述了找到所需数据时使用的扫描方式是什么,常见扫描类型的执行效率从低到高的顺序为:

                                          • All(全表扫描);
                                          • index(全索引扫描);
                                          • range(索引范围扫描);
                                          • ref(非唯一索引扫描);
                                          • eq_ref(唯一索引扫描);
                                          • const(结果只有一条的主键或唯一索引扫描)。

                                            事务有哪些特性?

                                            • 原子性(Atomicity):一个事务中的所有操作,要么全部完成,要么全部不完成,不会结束在中间某个环节,而且事务在执行过程中发生错误,会被回滚到事务开始前的状态,就像这个事务从来没有执行过一样。
                                            • 一致性(Consistency):是指事务操作前和操作后,数据满足完整性约束,数据库保持一致性状态。比如,转账前后,不管成不成功,两人的钱的总和不变。
                                            • 隔离性(Isolation):数据库允许多个并发事务同时对其数据进行读写和修改的能力,隔离性可以防止多个事务并发执行时由于交叉执行而导致数据的不一致,因为多个事务同时使用相同的数据时,不会相互干扰,每个事务都有一个完整的数据空间,对其他并发事务是隔离的。也就是说,消费者购买商品这个事务,是不影响其他消费者购买的。
                                            • 持久性(Durability):事务处理结束后,对数据的修改就是永久的,即便系统故障也不会丢失。

                                              [事务特性联想1]:InnoDB 引擎通过什么技术来保证事务的这四个特性的呢?

                                              • 持久性是通过 redo log (重做日志)来保证的;
                                              • 原子性是通过 undo log(回滚日志) 来保证的;
                                              • 隔离性是通过 MVCC(多版本并发控制) 或锁机制来保证的;
                                              • 一致性则是通过持久性+原子性+隔离性来保证;

                                                并行事务会引发什么问题?

                                                在同时处理多个事务的时候,就可能出现**脏读(dirty read)、不可重复读(non-repeatable read)、幻读(phantom read)**的问题。

                                                • 脏读:如果一个事务「读到」了另一个「未提交事务修改过的数据」,就意味着发生了「脏读」现象。
                                                • 不可重复读:在一个事务内多次读取同一个数据,如果出现前后两次读到的数据不一样的情况,就意味着发生了「不可重复读」现象。
                                                • 幻读:在一个事务内多次查询某个符合查询条件的「记录数量」,如果出现前后两次查询到的记录数量不一样的情况,就意味着发生了「幻读」现象。

                                                  事务的隔离级别有哪些?

                                                  • 读未提交(read uncommitted),指一个事务还没提交时,它做的变更就能被其他事务看到;
                                                  • 读提交(read committed),指一个事务提交之后,它做的变更才能被其他事务看到;
                                                  • 可重复读(repeatable read),指一个事务执行过程中看到的数据,一直跟这个事务启动时看到的数据是一致的,MySQL InnoDB 引擎的默认隔离级别;
                                                  • 串行化(serializable );会对记录加上读写锁,在多个事务对这条记录进行读写操作时,如果发生了读写冲突的时候,后访问的事务必须等前一个事务执行完成,才能继续执行;

                                                    [事务隔离级别联想1]:各种隔离级别解决的问题:

                                                    • 在「读未提交」隔离级别下,可能发生脏读、不可重复读和幻读现象;
                                                    • 在「读提交」隔离级别下,可能发生不可重复读和幻读现象,但是不可能发生脏读现象;
                                                    • 在「可重复读」隔离级别下,可能发生幻读现象,但是不可能脏读和不可重复读现象;
                                                    • 在「串行化」隔离级别下,脏读、不可重复读和幻读现象都不可能会发生。

                                                      [事务隔离级别联想2]:MySQL InnoDB 引擎的默认隔离级别虽然是「可重复读」,但是它很大程度上避免幻读现象,解决的方案有两种:

                                                      • 针对快照读(普通 select 语句),是通过 MVCC 方式解决了幻读,因为可重复读隔离级别下,事务执行过程中看到的数据,一直跟这个事务启动时看到的数据是一致的,即使中途有其他事务插入了一条数据,是查询不出来这条数据的,所以就很好了避免幻读问题。
                                                      • 针对当前读(select … for update 等语句),是通过 next-key lock(记录锁+间隙锁)方式解决了幻读,因为当执行 select … for update 语句的时候,会加上 next-key lock,如果有其他事务在 next-key lock 锁范围内插入了一条记录,那么这个插入语句就会被阻塞,无法成功插入,所以就很好了避免幻读问题。

                                                        Read View 在 MVCC 里如何工作的?

                                                        创建Read View 时,记录当前数据库中:

                                                        • 「活跃事务」的事务 id 列表,“活跃事务”指的就是,启动了但还没提交的事务。
                                                        • 当前数据库中「活跃事务」中事务 id 最小的事务。
                                                        • 创建 Read View 时当前数据库中应该给下一个事务的 id 值。
                                                        • 创建该 Read View 的事务的事务 id

                                                          相应的,在数据库中一条记录会有隐藏列记录改动它的事务id(还一个只向旧版本的指针),然后,当一个事务去访问记录的时候,除了自己的更新记录总是可见之外,还有这几种情况(上面内容的用法):

                                                          • 如果记录的事务id值小于 Read View 中的最小id值,表示这个版本的记录是在创建 Read View 前已经提交的事务生成的,所以该版本的记录对当前事务可见。
                                                          • 如果记录的事务id值大于等于 Read View 中的 下一事务id 值,表示这个版本的记录是在创建 Read View 后才启动的事务生成的,所以该版本的记录对当前事务不可见。
                                                          • 如果记录的 事务id 值在 Read View 的最小id和下一id之间,需要判断 事务id 是否在 活跃事务 列表中:
                                                            • 如果记录的 事务id 在 列表中,表示生成该版本记录的活跃事务依然活跃着(还没提交事务),所以该版本的记录对当前事务不可见。
                                                            • 如果记录的 事务id 不在 列表中,表示生成该版本记录的活跃事务已经被提交,所以该版本的记录对当前事务可见。

                                                              这种通过「版本链」来控制并发事务访问同一个记录时的行为就叫 MVCC(多版本并发控制)。

                                                              可重复读是如何工作的?

                                                              可重复读隔离级别是启动事务时生成一个 Read View,然后整个事务期间都在用这个 Read View。

                                                              读提交是如何工作的?

                                                              读提交隔离级别是在每次读取数据时,都会生成一个新的 Read View。

                                                              也意味着,事务期间的多次读取同一条数据,前后两次读的数据可能会出现不一致,因为可能这期间另外一个事务修改了该记录,并提交了事务。

                                                              「读提交」和「可重复读」实现方式有什么区别?

                                                              对于「读提交」和「可重复读」隔离级别的事务来说,它们是通过 Read View 来实现的,它们的区别在于创建 Read View 的时机不同:

                                                              • 「读提交」隔离级别是在每个 select 都会生成一个新的 Read View,也意味着,事务期间的多次读取同一条数据,前后两次读的数据可能会出现不一致,因为可能这期间另外一个事务修改了该记录,并提交了事务。
                                                              • 「可重复读」隔离级别是启动事务时生成一个 Read View,然后整个事务期间都在用这个 Read View,这样就保证了在事务期间读到的数据都是事务启动前的记录。

                                                                这两个隔离级别实现是通过「事务的 Read View 里的字段」和「记录中的两个隐藏列」的比对,来控制并发事务访问同一个记录时的行为,这就叫 MVCC(多版本并发控制)。

                                                                在可重复读隔离级别中,普通的 select 语句就是基于 MVCC 实现的快照读,也就是不会加锁的。而 select … for update 语句就不是快照读了,而是当前读了,也就是每次读都是拿到最新版本的数据,但是它会对读到的记录加上 next-key lock 锁。

                                                                幻读被完全解决了吗?

                                                                可重复读隔离级别下虽然很大程度上避免了幻读,但是还是没有能完全解决幻读。

                                                                **场景1:**A事务select查询 id=5的记录(假设存在,由A后的事务提交),查不到,update修改id=5的记录可以修改(update可操作最新记录),这时这条记录隐藏列记录的事务id就变成A的了,当A再select时就可以查到了(幻读了)。

                                                                场景2:

                                                                • T1 时刻:事务 A 先执行「快照读语句」:select * from t_test where id > 100 得到了 3 条记录。
                                                                • T2 时刻:事务 B 往插入一个 id= 200 的记录并提交;
                                                                • T3 时刻:事务 A 再执行「当前读语句」 select * from t_test where id > 100 for update 就会得到 4 条记录,此时也发生了幻读现象。

                                                                  要避免这类特殊场景下发生幻读的现象的话,就是尽量在开启事务之后,马上执行 select … for update 这类当前读的语句,因为它会对记录加 next-key lock,从而避免其他事务插入一条新记录。

                                                                  MySQL 有哪些锁?

                                                                  • MySQL锁
                                                                    • 全局锁
                                                                      • FTWRL
                                                                      • 表级锁
                                                                        • 表锁
                                                                        • 元数据锁
                                                                        • 意向锁
                                                                        • AOTU-INC锁
                                                                        • 行级锁
                                                                          • Record Lock
                                                                          • Gap Lock
                                                                          • Next-Key Lock
                                                                            全局锁是怎么用的?

                                                                            要使用全局锁,则要执行这条命令:

                                                                            flush tables with read lock
                                                                            

                                                                            行后,整个数据库就处于只读状态了,这时其他线程执行以下操作,都会被阻塞:

                                                                            • 对数据的增删改操作,比如 insert、delete、update等语句;
                                                                            • 对表结构的更改操作,比如 alter table、drop table 等语句。

                                                                              如果要释放全局锁,则要执行这条命令:

                                                                              unlock tables
                                                                              

                                                                              当然,当会话断开了,全局锁会被自动释放。

                                                                              [全局锁联想1]:全局锁应用场景是什么?:全局锁主要应用于做全库逻辑备份,这样在备份数据库期间,不会因为数据或表结构的更新,而出现备份文件的数据与预期的不一样。

                                                                              [全局锁联想2]:加全局锁又会带来什么缺点呢?:加上全局锁,意味着整个数据库都是只读状态。

                                                                              那么如果数据库里有很多数据,备份就会花费很多的时间,关键是备份期间,业务只能读数据,而不能更新数据,这样会造成业务停滞。

                                                                              [全局锁联想3]:既然备份数据库数据的时候,使用全局锁会影响业务,那有什么其他方式可以避免?:如果数据库的引擎支持的事务支持可重复读的隔离级别,那么在备份数据库之前先开启事务,会先创建 Read View,然后整个事务执行期间都在用这个 Read View,而且由于 MVCC 的支持,备份期间业务依然可以对数据进行更新操作。

                                                                              表级锁有哪些?怎么用的?

                                                                              MySQL 里面表级别的锁有这几种:

                                                                              • 表锁;
                                                                              • 元数据锁(MDL);
                                                                              • 意向锁;
                                                                              • AUTO-INC 锁;
                                                                                表锁的使用:

                                                                                如果我们想对学生表(t_student)加表锁,可以使用下面的命令:

                                                                                //表级别的共享锁,也就是读锁;
                                                                                lock tables t_student read;
                                                                                //表级别的独占锁,也就是写锁;
                                                                                lock tables t_stuent write;
                                                                                

                                                                                需要注意的是,表锁除了会限制别的线程的读写外,也会限制本线程接下来的读写操作。

                                                                                要释放表锁,可以使用下面这条命令,会释放当前会话的所有表锁:

                                                                                unlock tables
                                                                                

                                                                                另外,当会话退出后,也会释放所有表锁。

                                                                                元数据锁(MDL)的使用:

                                                                                我们不需要显示的使用 MDL,因为当我们对数据库表进行操作时,会自动给这个表加上 MDL:

                                                                                • 对一张表进行 CRUD 操作时,加的是 MDL 读锁;
                                                                                • 对一张表做结构变更操作的时候,加的是 MDL 写锁;

                                                                                  MDL 是为了保证当用户对表执行 CRUD 操作时,防止其他线程对这个表结构做了变更。

                                                                                  [元数据锁联想1]:MDL 不需要显示调用,那它是在什么时候释放的?:MDL 是在事务提交后才会释放,这意味着事务执行期间,MDL 是一直持有的。那如果数据库有一个长事务(所谓的长事务,就是开启了事务,但是一直还没提交),那在对表结构做变更操作的时候,可能会发生意想不到的事情,比如下面这个顺序的场景:

                                                                                  首先,线程 A 先启用了事务(但是一直不提交),然后执行一条 select 语句,此时就先对该表加上 MDL 读锁;

                                                                                  然后,线程 B 也执行了同样的 select 语句,此时并不会阻塞,因为「读读」并不冲突;

                                                                                  接着,线程 C 修改了表字段,此时由于线程 A 的事务并没有提交,也就是 MDL 读锁还在占用着,这时线程 C 就无法申请到 MDL 写锁,就会被阻塞,

                                                                                  那么在线程 C 阻塞后,后续有对该表的 select 语句,就都会被阻塞,如果此时有大量该表的 select 语句的请求到来,就会有大量的线程被阻塞住,这时数据库的线程很快就会爆满了。

                                                                                  [元数据锁联想2]:为什么线程 C 因为申请不到 MDL 写锁,而导致后续的申请读锁的查询操作也被阻塞?

                                                                                  这是因为申请 MDL 锁的操作会形成一个队列,队列中写锁获取优先级高于读锁,一旦出现 MDL 写锁等待,会阻塞后续该表的所有 CRUD 操作。

                                                                                  意向锁的使用:
                                                                                  • 在使用 InnoDB 引擎的表里对某些记录加上「共享锁」之前,需要先在表级别加上一个「意向共享锁」;
                                                                                  • 在使用 InnoDB 引擎的表里对某些纪录加上「独占锁」之前,需要先在表级别加上一个「意向独占锁」;

                                                                                    也就是,当执行插入、更新、删除操作,需要先对表加上「意向独占锁」,然后对该记录加独占锁。

                                                                                    而普通的 select 是不会加行级锁的,普通的 select 语句是利用 MVCC 实现一致性读,是无锁的。

                                                                                    不过,select 也是可以对记录加共享锁和独占锁的,具体方式如下:

                                                                                    //先在表上加上意向共享锁,然后对读取的记录加共享锁
                                                                                    select ... lock in share mode;
                                                                                    //先表上加上意向独占锁,然后对读取的记录加独占锁
                                                                                    select ... for update;
                                                                                    

                                                                                    意向共享锁和意向独占锁是表级锁,不会和行级的共享锁和独占锁发生冲突,而且意向锁之间也不会发生冲突,只会和共享表锁(lock tables … read)和独占表锁(lock tables … write)发生冲突。

                                                                                    表锁和行锁是满足读读共享、读写互斥、写写互斥的。

                                                                                    AUTO-INC 锁的使用:

                                                                                    表里的主键通常都会设置成自增的,这是通过对主键字段声明 AUTO_INCREMENT 属性实现的。

                                                                                    之后可以在插入数据时,可以不指定主键的值,数据库会自动给主键赋值递增的值,这主要是通过 AUTO-INC 锁实现的。

                                                                                    AUTO-INC 锁是特殊的表锁机制,锁不是再一个事务提交后才释放,而是再执行完插入语句后就会立即释放。

                                                                                    在插入数据时,会加一个表级别的 AUTO-INC 锁,然后为被 AUTO_INCREMENT 修饰的字段赋值递增的值,等插入语句执行完成后,才会把 AUTO-INC 锁释放掉。

                                                                                    [自增锁联想1]:但是, AUTO-INC 锁再对大量数据进行插入的时候,会影响插入性能,因为另一个事务中的插入会被阻塞。

                                                                                    因此, 在 MySQL 5.1.22 版本开始,InnoDB 存储引擎提供了一种轻量级的锁来实现自增。

                                                                                    一样也是在插入数据的时候,会为被 AUTO_INCREMENT 修饰的字段加上轻量级锁,然后给该字段赋值一个自增的值,就把这个轻量级锁释放了,而不需要等待整个插入语句执行完后才释放锁。

                                                                                    行级锁有哪些?怎么用的?

                                                                                    InnoDB 引擎是支持行级锁的,而 MyISAM 引擎并不支持行级锁。

                                                                                    行级锁的类型主要有三类:

                                                                                    • Record Lock,记录锁,也就是仅仅把一条记录锁上;
                                                                                    • Gap Lock,间隙锁,锁定一个范围,但是不包含记录本身;
                                                                                    • Next-Key Lock:Record Lock + Gap Lock 的组合,锁定一个范围,并且锁定记录本身。

                                                                                      共享锁(S锁)满足读读共享,读写互斥。独占锁(X锁)满足写写互斥、读写互斥。

                                                                                      Record Lock

                                                                                      Record Lock 称为记录锁,锁住的是一条记录。而且记录锁是有 S 锁和 X 锁之分的:

                                                                                      • 当一个事务对一条记录加了 S 型记录锁后,其他事务也可以继续对该记录加 S 型记录锁(S 型与 S 锁兼容),但是不可以对该记录加 X 型记录锁(S 型与 X 锁不兼容);
                                                                                      • 当一个事务对一条记录加了 X 型记录锁后,其他事务既不可以对该记录加 S 型记录锁(S 型与 X 锁不兼容),也不可以对该记录加 X 型记录锁(X 型与 X 锁不兼容)。

                                                                                        举个例子,当一个事务执行了下面这条语句:

                                                                                        mysql > begin;
                                                                                        mysql > select * from t_test where id = 1 for update;
                                                                                        

                                                                                        就是对 t_test 表中主键 id 为 1 的这条记录加上 X 型的记录锁,这样其他事务就无法对这条记录进行修改了。

                                                                                        当事务执行 commit 后,事务过程中生成的锁都会被释放。

                                                                                        Gap Lock

                                                                                        Gap Lock 称为间隙锁,只存在于可重复读隔离级别,目的是为了解决可重复读隔离级别下幻读的现象。

                                                                                        假设,表中有一个范围 id 为(3,5)间隙锁,那么其他事务就无法插入 id = 4 这条记录了,这样就有效的防止幻读现象的发生。

                                                                                        间隙锁虽然存在 X 型间隙锁和 S 型间隙锁,但是并没有什么区别,间隙锁之间是兼容的,即两个事务可以同时持有包含共同间隙范围的间隙锁,并不存在互斥关系,因为间隙锁的目的是防止插入幻影记录而提出的。

                                                                                        Next-Key Lock

                                                                                        Next-Key Lock 称为临键锁,是 Record Lock + Gap Lock 的组合,锁定一个范围,并且锁定记录本身。

                                                                                        假设,表中有一个范围 id 为(3,5] 的 next-key lock,那么其他事务即不能插入 id = 4 记录,也不能修改 id = 5 这条记录。

                                                                                        所以,next-key lock 即能保护该记录,又能阻止其他事务将新纪录插入到被保护记录前面的间隙中。

                                                                                        next-key lock 是包含间隙锁+记录锁的,如果一个事务获取了 X 型的 next-key lock,那么另外一个事务在获取相同范围的 X 型的 next-key lock 时,是会被阻塞的。

                                                                                        比如,一个事务持有了范围为 (1, 10] 的 X 型的 next-key lock,那么另外一个事务在获取相同范围的 X 型的 next-key lock 时,就会被阻塞。

                                                                                        虽然相同范围的间隙锁是多个事务相互兼容的,但对于记录锁,我们是要考虑 X 型与 S 型关系,X 型的记录锁与 X 型的记录锁是冲突的。

                                                                                        插入意向锁

                                                                                        一个事务在插入一条记录的时候,需要判断插入位置是否已被其他事务加了间隙锁(next-key lock 也包含间隙锁)。

                                                                                        如果有的话,插入操作就会发生阻塞,直到拥有间隙锁的那个事务提交为止(释放间隙锁的时刻),在此期间会生成一个插入意向锁,表明有事务想在某个区间插入新记录,但是现在处于等待状态。

                                                                                        举个例子,假设事务 A 已经对表加了一个范围 id 为(3,5)间隙锁。

                                                                                        当事务 A 还没提交的时候,事务 B 向该表插入一条 id = 4 的新记录,这时会判断到插入的位置已经被事务 A 加了间隙锁,于是事物 B 会生成一个插入意向锁,然后将锁的状态设置为等待状态(PS:MySQL 加锁时,是先生成锁结构,然后设置锁的状态,如果锁状态是等待状态,并不是意味着事务成功获取到了锁,只有当锁状态为正常状态时,才代表事务成功获取到了锁),此时事务 B 就会发生阻塞,直到事务 A 提交了事务。

                                                                                        插入意向锁名字虽然有意向锁,但是它并不是意向锁,它是一种特殊的间隙锁,属于行级别锁。

                                                                                        如果说间隙锁锁住的是一个区间,那么「插入意向锁」锁住的就是一个点。因而从这个角度来说,插入意向锁确实是一种特殊的间隙锁。

                                                                                        插入意向锁与间隙锁的另一个非常重要的差别是:尽管「插入意向锁」也属于间隙锁,但两个事务却不能在同一时间内,一个拥有间隙锁,另一个拥有该间隙区间内的插入意向锁(当然,插入意向锁如果不在间隙锁区间内则是可以的)。

                                                                                        MySQL 日志:undo log、redo log、binlog 有什么用?

                                                                                        执行一条 update 语句,期间发生了什么?,比如这一条 update 语句:

                                                                                        UPDATE t_user SET name = 'xiaolin' WHERE id = 1;
                                                                                        

                                                                                        查询语句的那一套流程,更新语句也是同样会走一遍:

                                                                                        • 客户端先通过连接器建立连接,连接器自会判断用户身份;
                                                                                        • 因为这是一条 update 语句,所以不需要经过查询缓存,但是表上有更新语句,是会把整个表的查询缓存清空的,所以说查询缓存很鸡肋,在 MySQL 8.0 就被移除这个功能了;
                                                                                        • 解析器会通过词法分析识别出关键字 update,表名等等,构建出语法树,接着还会做语法分析,判断输入的语句是否符合 MySQL 语法;
                                                                                        • 预处理器会判断表和字段是否存在;
                                                                                        • 优化器确定执行计划,因为 where 条件中的 id 是主键索引,所以决定要使用 id 这个索引;
                                                                                        • 执行器负责具体执行,找到这一行,然后更新。

                                                                                          不过,更新语句的流程会涉及到 undo log(回滚日志)、redo log(重做日志) 、binlog (归档日志)这三种日志:

                                                                                          • undo log(回滚日志):是 Innodb 存储引擎层生成的日志,实现了事务中的原子性,主要用于事务回滚和 MVCC。
                                                                                          • redo log(重做日志):是 Innodb 存储引擎层生成的日志,实现了事务中的持久性,主要用于掉电等故障恢复;
                                                                                          • binlog (归档日志):是 Server 层生成的日志,主要用于数据备份和主从复制;
                                                                                            为什么需要 undo log?

                                                                                            我们在执行执行一条“增删改”语句的时候,虽然没有输入 begin 开启事务和 commit 提交事务,但是 MySQL 会隐式开启事务来执行“增删改”语句的,执行完就自动提交事务的,这样就保证了执行完“增删改”语句后,我们可以及时在数据库表看到“增删改”的结果了。

                                                                                            那么,考虑一个问题。一个事务在执行过程中,在还没有提交事务之前,如果 MySQL 发生了崩溃,要怎么回滚到事务之前的数据呢?

                                                                                            如果我们每次在事务执行过程中,都记录下回滚时需要的信息到一个日志里,那么在事务执行中途发生了 MySQL 崩溃后,就不用担心无法回滚到事务之前的数据,我们可以通过这个日志回滚到事务之前的数据。

                                                                                            实现这一机制就是 undo log(回滚日志),它保证了事务的 ACID 特性 原子性(Atomicity)。

                                                                                            undo log 是一种用于撤销回退的日志。在事务没提交之前,MySQL 会先记录更新前的数据到 undo log 日志文件里面,当事务回滚时,可以利用 undo log 来进行回滚。

                                                                                            每当 InnoDB 引擎对一条记录进行操作(修改、删除、新增)时,要把回滚时需要的信息都记录到 undo log 里,比如:

                                                                                            • 在插入一条记录时,要把这条记录的主键值记下来,这样之后回滚时只需要把这个主键值对应的记录删掉就好了;
                                                                                            • 在删除一条记录时,要把这条记录中的内容都记下来,这样之后回滚时再把由这些内容组成的记录插入到表中就好了;
                                                                                            • 在更新一条记录时,要把被更新的列的旧值记下来,这样之后回滚时再把这些列更新为旧值就好了。

                                                                                              [undo log 联想1]:另外,undo log 还有一个作用,通过 ReadView + undo log 实现 MVCC(多版本并发控制)。对于「读提交」和「可重复读」隔离级别的事务来说,它们的快照读(普通 select 语句)是通过 Read View + undo log 来实现的,这两个隔离级别实现是通过「事务的 Read View 里的字段」和「记录中的两个隐藏列(trx_id 和 roll_pointer)」的比对,如果不满足可见行,就会顺着 undo log 版本链里找到满足其可见性的记录,从而控制并发事务访问同一个记录时的行为,这就叫 MVCC(多版本并发控制)。

                                                                                              因此,undo log 两大作用:

                                                                                              • 实现事务回滚,保障事务的原子性。事务处理过程中,如果出现了错误或者用户执 行了 ROLLBACK 语句,MySQL 可以利用 undo log 中的历史数据将数据恢复到事务开始之前的状态。
                                                                                              • 实现 MVCC(多版本并发控制)关键因素之一。MVCC 是通过 ReadView + undo log 实现的。undo log 为每条记录保存多份历史数据,MySQL 在执行快照读(普通 select 语句)的时候,会根据事务的 Read View 里的信息,顺着 undo log 的版本链找到满足其可见性的记录。

                                                                                                [undo log 联想2]: undo log 是如何刷盘(持久化到磁盘)的?

                                                                                                undo log 和数据页的刷盘策略是一样的,都需要通过 redo log 保证持久化。

                                                                                                buffer pool 中有 undo 页,对 undo 页的修改也都会记录到 redo log。redo log 会每秒刷盘,提交事务时也会刷盘,数据页和 undo 页都是靠这个机制保证持久化的。

                                                                                                [undo log 联想3]:为什么需要 Buffer Pool?

                                                                                                有了 Buffer Poo 后:当读取数据时,如果数据存在于 Buffer Pool 中,客户端就会直接读取 Buffer Pool 中的数据,否则再去磁盘中读取。当修改数据时,如果数据存在于 Buffer Pool 中,那直接修改 Buffer Pool 中数据所在的页,然后将其页设置为脏页(该页的内存数据和磁盘上的数据已经不一致),为了减少磁盘I/O,不会立即将脏页写入磁盘,后续由后台线程选择一个合适的时机将脏页写入到磁盘。

                                                                                                [undo log 联想4]:Buffer Pool 缓存什么?

                                                                                                InnoDB 会把存储的数据划分为若干个「页」,以页作为磁盘和内存交互的基本单位,一个页的默认大小为 16KB。因此,Buffer Pool 同样需要按「页」来划分。

                                                                                                在 MySQL 启动的时候,InnoDB 会为 Buffer Pool 申请一片连续的内存空间,然后按照默认的16KB的大小划分出一个个的页, Buffer Pool 中的页就叫做缓存页。此时这些缓存页都是空闲的,之后随着程序的运行,才会有磁盘上的页被缓存到 Buffer Pool 中。

                                                                                                Buffer Pool 除了缓存「索引页」和「数据页」,还包括了 Undo 页,插入缓存、自适应哈希索引、锁信息等等。

                                                                                                [undo log 联想5]:Undo 页是记录什么?:开启事务后,InnoDB 层更新记录前,首先要记录相应的 undo log,如果是更新操作,需要把被更新的列的旧值记下来,也就是要生成一条 undo log,undo log 会写入 Buffer Pool 中的 Undo 页面。

                                                                                                [undo log 联想6]:查询一条记录,就只需要缓冲一条记录吗?:不是的。当我们查询一条记录时,InnoDB 是会把整个页的数据加载到 Buffer Pool 中,将页加载到 Buffer Pool 后,再通过页里的「页目录」去定位到某条具体的记录。

                                                                                                为什么需要 redo log ?

                                                                                                Buffer Pool 是基于内存的,而内存总是不可靠,万一断电重启,还没来得及落盘的脏页数据就会丢失。

                                                                                                为了防止断电导致数据丢失的问题,当有一条记录需要更新的时候,InnoDB 引擎就会先更新内存(同时标记为脏页),然后将本次对这个页的修改以 redo log 的形式记录下来,这个时候更新就算完成了。

                                                                                                后续,InnoDB 引擎会在适当的时候,由后台线程将缓存在 Buffer Pool 的脏页刷新到磁盘里,这就是 WAL (Write-Ahead Logging)技术。

                                                                                                WAL 技术指的是, MySQL 的写操作并不是立刻写到磁盘上,而是先写日志,然后在合适的时间再写到磁盘上。

                                                                                                [redo log 联想1]:什么是 redo log?redo log 是物理日志,记录了某个数据页做了什么修改,比如对 XXX 表空间中的 YYY 数据页 ZZZ 偏移量的地方做了AAA 更新,每当执行一个事务就会产生这样的一条或者多条物理日志。在事务提交时,只要先将 redo log 持久化到磁盘即可,可以不需要等到将缓存在 Buffer Pool 里的脏页数据持久化到磁盘。

                                                                                                当系统崩溃时,虽然脏页数据没有持久化,但是 redo log 已经持久化,接着 MySQL 重启后,可以根据 redo log 的内容,将所有数据恢复到最新的状态。

                                                                                                [redo log 联想2]:被修改 Undo 页面,需要记录对应 redo log 吗?:需要的。开启事务后,InnoDB 层更新记录前,首先要记录相应的 undo log,如果是更新操作,需要把被更新的列的旧值记下来,也就是要生成一条 undo log,undo log 会写入 Buffer Pool 中的 Undo 页面。

                                                                                                不过,在内存修改该 Undo 页面后,需要记录对应的 redo log。

                                                                                                [redo log联想3]:redo log 和 undo log 区别在哪?这两种日志是属于 InnoDB 存储引擎的日志,它们的区别在于:

                                                                                                • redo log 记录了此次事务「完成后」的数据状态,记录的是更新之后的值;
                                                                                                • undo log 记录了此次事务「开始前」的数据状态,记录的是更新之前的值;

                                                                                                  事务提交之前发生了崩溃,重启后会通过 undo log 回滚事务,事务提交之后发生了崩溃,重启后会通过 redo log 恢复事务。

                                                                                                  所以有了 redo log,再通过 WAL 技术,InnoDB 就可以保证即使数据库发生异常重启,之前已提交的记录都不会丢失,这个能力称为 crash-safe(崩溃恢复)。可以看出来, redo log 保证了事务四大特性中的持久性。

                                                                                                [redo log联想4]:redo log 要写到磁盘,数据也要写磁盘,为什么要多此一举?:写入 redo log 的方式使用了追加操作, 所以磁盘操作是顺序写,而写入数据需要先找到写入位置,然后才写到磁盘,所以磁盘操作是随机写。

                                                                                                磁盘的「顺序写 」比「随机写」 高效的多,因此 redo log 写入磁盘的开销更小。

                                                                                                至此, 针对为什么需要 redo log 这个问题我们有两个答案:

                                                                                                • 实现事务的持久性,让 MySQL 有 crash-safe 的能力,能够保证 MySQL 在任何时间段突然崩溃,重启后之前已提交的记录都不会丢失;
                                                                                                • 将写操作从「随机写」变成了「顺序写」,提升 MySQL 写入磁盘的性能。

                                                                                                [redo log 联想5]:产生的 redo log 是直接写入磁盘的吗?:不是的。

                                                                                                实际上, 执行一个事务的过程中,产生的 redo log 也不是直接写入磁盘的,因为这样会产生大量的 I/O 操作,而且磁盘的运行速度远慢于内存。

                                                                                                所以,redo log 也有自己的缓存—— redo log buffer,每当产生一条 redo log 时,会先写入到 redo log buffer,后续在持久化到磁盘。

                                                                                                [redo log 联想6]:redo log 什么时候刷盘?主要有下面几个时机:

                                                                                                • MySQL 正常关闭时;
                                                                                                • 当 redo log buffer 中记录的写入量大于 redo log buffer 内存空间的一半时,会触发落盘;
                                                                                                • InnoDB 的后台线程每隔 1 秒,将 redo log buffer 持久化到磁盘。

                                                                                                [redo log 联想7]:redo log 文件写满了怎么办?:

                                                                                                重做日志文件组是以循环写的方式工作的,从头开始写,写到末尾就又回到开头,相当于一个环形。

                                                                                                随着系统运行,Buffer Pool 的脏页刷新到了磁盘中,那么 redo log 对应的记录也就没用了,这时候我们擦除这些旧记录,以腾出空间记录新的更新操作。InnoDB 用 write pos 表示 redo log 当前记录写到的位置,用 checkpoint 表示当前要擦除的位置,如果 write pos 追上了 checkpoint,就意味着 redo log 文件满了,这时 MySQL 不能再执行新的更新操作,也就是说 MySQL 会被阻塞(因此所以针对并发量大的系统,适当设置 redo log 的文件大小非常重要),此时会停下来将 Buffer Pool 中的脏页刷新到磁盘中,然后标记 redo log 哪些记录可以被擦除,接着对旧的 redo log 记录进行擦除,等擦除完旧记录腾出了空间,checkpoint 就会往后移动(图中顺时针),然后 MySQL 恢复正常运行,继续执行新的更新操作。

                                                                                                为什么需要 binlog ?

                                                                                                前面介绍的 undo log 和 redo log 这两个日志都是 Innodb 存储引擎生成的。

                                                                                                MySQL 在完成一条更新操作后,Server 层还会生成一条 binlog,等之后事务提交的时候,会将该事物执行过程中产生的所有 binlog 统一写 入 binlog 文件。

                                                                                                binlog 文件是记录了所有数据库表结构变更和表数据修改的日志,不会记录查询类的操作,比如 SELECT 和 SHOW 操作。

                                                                                                [binlog 联想1]:为什么有了 binlog, 还要有 redo log?:最开始 MySQL 里并没有 InnoDB 引擎,MySQL 自带的引擎是 MyISAM,但是 MyISAM 没有 crash-safe 的能力,binlog 日志只能用于归档。

                                                                                                而 InnoDB 是另一个公司以插件形式引入 MySQL 的,既然只依靠 binlog 是没有 crash-safe 能力的,所以 InnoDB 使用 redo log 来实现 crash-safe 能力。

                                                                                                [binlog 联想2]: redo log 和 binlog 有什么区别?:

                                                                                                • 适用对象不同(binlog 是 MySQL 的 Server 层实现的日志,所有存储引擎都可以使用;redo log 是 Innodb 存储引擎实现的日志;)
                                                                                                • 文件格式不同
                                                                                                • 写入方式不同(binlog 是追加写,写满一个文件,就创建一个新的文件继续写,不会覆盖以前的日志,保存的是全量的日志。redo log 是循环写,日志空间大小是固定,全部写满就从头开始,保存未被刷入磁盘的脏页日志。)
                                                                                                • 用途不同(binlog 用于备份恢复、主从复制;redo log 用于掉电等故障恢复。)

                                                                                                [binlog 联想3]:如果不小心整个数据库的数据被删除了,能使用 redo log 文件恢复数据吗?

                                                                                                不可以使用 redo log 文件恢复,只能使用 binlog 文件恢复。

                                                                                                因为 redo log 文件是循环写,是会边写边擦除日志的,只记录未被刷入磁盘的数据的物理日志,已经刷入磁盘的数据都会从 redo log 文件里擦除。

                                                                                                binlog 文件保存的是全量的日志,也就是保存了所有数据变更的情况,理论上只要记录在 binlog 上的数据,都可以恢复,所以如果不小心整个数据库的数据被删除了,得用 binlog 文件恢复数据。

                                                                                                [binlog 联想4]:主从复制是怎么实现?:MySQL 的主从复制依赖于 binlog ,也就是记录 MySQL 上的所有变化并以二进制形式保存在磁盘上。复制的过程就是将 binlog 中的数据从主库传输到从库上。

                                                                                                这个过程一般是异步的,也就是主库上执行事务操作的线程不会等待复制 binlog 的线程同步完成。

                                                                                                [binlog 联想5]:MySQL 集群的主从复制过程梳理成 3 个阶段:

                                                                                                • 写入 Binlog:主库写 binlog 日志,提交事务,并更新本地存储数据。
                                                                                                • 同步 Binlog:把 binlog 复制到所有从库上,每个从库把 binlog 写到暂存日志中。
                                                                                                • 回放 Binlog:回放 binlog,并更新存储引擎中的数据。

                                                                                                  在完成主从复制之后,你就可以在写数据时只写主库,在读数据时只读从库,这样即使写请求会锁表或者锁记录,也不会影响读请求的执行。

                                                                                                [binlog 联想6]:MySQL 主从复制还有哪些模型?

                                                                                                主要有三种:

                                                                                                • 同步复制:MySQL 主库提交事务的线程要等待所有从库的复制成功响应,才返回客户端结果。这种方式在实际项目中,基本上没法用,原因有两个:一是性能很差,因为要复制到所有节点才返回响应;二是可用性也很差,主库和所有从库任何一个数据库出问题,都会影响业务。
                                                                                                • 异步复制(默认模型):MySQL 主库提交事务的线程并不会等待 binlog 同步到各从库,就返回客户端结果。这种模式一旦主库宕机,数据就会发生丢失。
                                                                                                • 半同步复制:MySQL 5.7 版本之后增加的一种复制方式,介于两者之间,事务线程不用等待所有的从库复制成功响应,只要一部分复制成功响应回来就行,比如一主二从的集群,只要数据成功复制到任意一个从库上,主库的事务线程就可以返回给客户端。这种半同步复制的方式,兼顾了异步复制和同步复制的优点,即使出现主库宕机,至少还有一个从库有最新的数据,不存在数据丢失的风险。

                                                                                                [binlog 联想7]:binlog 什么时候刷盘?:事务执行过程中,先把日志写到 binlog cache(Server 层的 cache),事务提交的时候,再把 binlog cache 写到 binlog 文件中。,并清空 binlog cache。

                                                                                                [binlog 联想8]: 两阶段提交:事务提交后,redo log 和 binlog 都要持久化到磁盘,但是这两个是独立的逻辑,可能出现半成功的状态,这样就造成两份日志之间的逻辑不一致。MySQL 为了避免出现两份日志之间的逻辑不一致的问题,使用了「两阶段提交」来解决,两阶段提交其实是分布式事务一致性协议,它可以保证多个逻辑操作要不全部成功,要不全部失败,不会出现半成功的状态。两阶段提交把单个事务的提交拆分成了 2 个阶段,分别是「准备(Prepare)阶段」和「提交(Commit)阶段」,每个阶段都由协调者(Coordinator)和参与者(Participant)共同完成。

                                                                                                MySQL 磁盘 I/O 很高,有什么优化的方法?

                                                                                                现在我们知道事务在提交的时候,需要将 binlog 和 redo log 持久化到磁盘,那么如果出现 MySQL 磁盘 I/O 很高的现象,我们可以通过控制以下参数,来 “延迟” binlog 和 redo log 刷盘的时机,从而降低磁盘 I/O 的频率:

                                                                                                • 设置组提交的两个参数: binlog_group_commit_sync_delay 和 binlog_group_commit_sync_no_delay_count 参数,延迟 binlog 刷盘的时机,从而减少 binlog 的刷盘次数。这个方法是基于“额外的故意等待”来实现的,因此可能会增加语句的响应时间,但即使 MySQL 进程中途挂了,也没有丢失数据的风险,因为 binlog 早被写入到 page cache 了,只要系统没有宕机,缓存在 page cache 里的 binlog 就会被持久化到磁盘。
                                                                                                • 将 sync_binlog 设置为大于 1 的值(比较常见是 100~1000),表示每次提交事务都 write,但累积 N 个事务后才 fsync,相当于延迟了 binlog 刷盘的时机。但是这样做的风险是,主机掉电时会丢 N 个事务的 binlog 日志。
                                                                                                • 将 innodb_flush_log_at_trx_commit 设置为 2。表示每次事务提交时,都只是缓存在 redo log buffer 里的 redo log 写到 redo log 文件,注意写入到「 redo log 文件」并不意味着写入到了磁盘,因为操作系统的文件系统中有个 Page Cache,专门用来缓存文件数据的,所以写入「 redo log文件」意味着写入到了操作系统的文件缓存,然后交由操作系统控制持久化到磁盘的时机。但是这样做的风险是,主机掉电的时候会丢数据。