保定网站维护做动漫头像的网站
news/
2025/10/8 14:21:05/
文章来源:
保定网站维护,做动漫头像的网站,接私活做网站设计,学院网站信息化建设在前面的基础篇文章中#xff0c;我给你介绍过索引的基本概念#xff0c;相信你已经了解了唯一索引和普通索引的区别。今天我们就继续来谈谈#xff0c;在不同的业务场景下#xff0c;应该选择普通索引#xff0c;还是唯一索引#xff1f; 假设你在维护一个市民系统…在前面的基础篇文章中我给你介绍过索引的基本概念相信你已经了解了唯一索引和普通索引的区别。今天我们就继续来谈谈在不同的业务场景下应该选择普通索引还是唯一索引 假设你在维护一个市民系统每个人都有一个唯一的身份证号而且业务代码已经保证了不会写入两个重复的身份证号。如果市民系统需要按照身份证号查姓名就会执行类似这样的SQL语句 select name from CUser where id_card xxxxxxxyyyyyyzzzzz;所以你一定会考虑在id_card字段上建索引。 由于身份证号字段比较大我不建议你把身份证号当做主键那么现在你有两个选择要么给id_card字段创建唯一索引要么创建一个普通索引。如果业务代码已经保证了不会写入重复的身份证号那么这两个选择逻辑上都是正确的。 现在我要问你的是从性能的角度考虑你选择唯一索引还是普通索引呢选择的依据是什么呢 简单起见我们还是用第4篇文章《深入浅出索引上》中的例子来说明假设字段 k 上的值都不重复。 图1 InnoDB的索引组织结构
接下来我们就从这两种索引对查询语句和更新语句的性能影响来进行分析。 查询过程
假设执行查询的语句是 select id from T where k5。这个查询语句在索引树上查找的过程先是通过B树从树根开始按层搜索到叶子节点也就是图中右下角的这个数据页然后可以认为数据页内部通过二分法来定位记录。 对于普通索引来说查找到满足条件的第一个记录(5,500)后需要查找下一个记录直到碰到第一个不满足k5条件的记录。 对于唯一索引来说由于索引定义了唯一性查找到第一个满足条件的记录后就会停止继续检索。
那么这个不同带来的性能差距会有多少呢答案是微乎其微。 你知道的InnoDB的数据是按数据页为单位来读写的。也就是说当需要读一条记录的时候并不是将这个记录本身从磁盘读出来而是以页为单位将其整体读入内存。在InnoDB中每个数据页的大小默认是16KB。 因为引擎是按页读写的所以说当找到k5的记录的时候它所在的数据页就都在内存里了。那么对于普通索引来说要多做的那一次“查找和判断下一条记录”的操作就只需要一次指针寻找和一次计算。 当然如果k5这个记录刚好是这个数据页的最后一个记录那么要取下一个记录必须读取下一个数据页这个操作会稍微复杂一些。 但是我们之前计算过对于整型字段一个数据页可以放近千个key因此出现这种情况的概率会很低。所以我们计算平均性能差异时仍可以认为这个操作成本对于现在的CPU来说可以忽略不计。 更新过程
为了说明普通索引和唯一索引对更新语句性能的影响这个问题我需要先跟你介绍一下change buffer。 当需要更新一个数据页时如果数据页在内存中就直接更新而如果这个数据页还没有在内存中的话在不影响数据一致性的前提下InnoDB会将这些更新操作缓存在change buffer中这样就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候将数据页读入内存然后执行change buffer中与这个页有关的操作。通过这种方式就能保证这个数据逻辑的正确性。 需要说明的是虽然名字叫作change buffer实际上它是可以持久化的数据。也就是说change buffer在内存中有拷贝也会被写入到磁盘上。 将change buffer中的操作应用到原数据页得到最新结果的过程称为merge。除了访问这个数据页会触发merge外系统有后台线程会定期merge。在数据库正常关闭shutdown的过程中也会执行merge操作。 显然如果能够将更新操作先记录在change buffer减少读磁盘语句的执行速度会得到明显的提升。而且数据读入内存是需要占用buffer pool的所以这种方式还能够避免占用内存提高内存利用率。 那么什么条件下可以使用change buffer呢 对于唯一索引来说所有的更新操作都要先判断这个操作是否违反唯一性约束。比如要插入(4,400)这个记录就要先判断现在表中是否已经存在k4的记录而这必须要将数据页读入内存才能判断。如果都已经读入到内存了那直接更新内存会更快就没必要使用change buffer了。 因此唯一索引的更新就不能使用change buffer实际上也只有普通索引可以使用。 change buffer用的是buffer pool里的内存因此不能无限增大。change buffer的大小可以通过参数innodb_change_buffer_max_size来动态设置。这个参数设置为50的时候表示change buffer的大小最多只能占用buffer pool的50%。 现在你已经理解了change buffer的机制那么我们再一起来看看如果要在这张表中插入一个新记录(4,400)的话InnoDB的处理流程是怎样的。 第一种情况是这个记录要更新的目标页在内存中。这时InnoDB的处理流程如下 对于唯一索引来说找到3和5之间的位置判断到没有冲突插入这个值语句执行结束 对于普通索引来说找到3和5之间的位置插入这个值语句执行结束。
这样看来普通索引和唯一索引对更新语句性能影响的差别只是一个判断只会耗费微小的CPU时间。 但这不是我们关注的重点。 第二种情况是这个记录要更新的目标页不在内存中。这时InnoDB的处理流程如下 对于唯一索引来说需要将数据页读入内存判断到没有冲突插入这个值语句执行结束 对于普通索引来说则是将更新记录在change buffer语句执行就结束了。
将数据从磁盘读入内存涉及随机IO的访问是数据库里面成本最高的操作之一。change buffer因为减少了随机磁盘访问所以对更新性能的提升是会很明显的。 之前我就碰到过一件事儿有个DBA的同学跟我反馈说他负责的某个业务的库内存命中率突然从99%降低到了75%整个系统处于阻塞状态更新语句全部堵住。而探究其原因后我发现这个业务有大量插入数据的操作而他在前一天把其中的某个普通索引改成了唯一索引。 change buffer的使用场景
通过上面的分析你已经清楚了使用change buffer对更新过程的加速作用也清楚了change buffer只限于用在普通索引的场景下而不适用于唯一索引。那么现在有一个问题就是普通索引的所有场景使用change buffer都可以起到加速作用吗 因为merge的时候是真正进行数据更新的时刻而change buffer的主要目的就是将记录的变更动作缓存下来所以在一个数据页做merge之前change buffer记录的变更越多也就是这个页面上要更新的次数越多收益就越大。 因此对于写多读少的业务来说页面在写完以后马上被访问到的概率比较小此时change buffer的使用效果最好。这种业务模型常见的就是账单类、日志类的系统。 反过来假设一个业务的更新模式是写入之后马上会做查询那么即使满足了条件将更新先记录在change buffer但之后由于马上要访问这个数据页会立即触发merge过程。这样随机访问IO的次数不会减少反而增加了change buffer的维护代价。所以对于这种业务模式来说change buffer反而起到了副作用。 索引选择和实践
回到我们文章开头的问题普通索引和唯一索引应该怎么选择。其实这两类索引在查询能力上是没差别的主要考虑的是对更新性能的影响。所以我建议你尽量选择普通索引。 如果所有的更新后面都马上伴随着对这个记录的查询那么你应该关闭change buffer。而在其他情况下change buffer都能提升更新性能。 在实际使用中你会发现普通索引和change buffer的配合使用对于数据量大的表的更新优化还是很明显的。 特别地在使用机械硬盘时change buffer这个机制的收效是非常显著的。所以当你有一个类似“历史数据”的库并且出于成本考虑用的是机械硬盘时那你应该特别关注这些表里的索引尽量使用普通索引然后把change buffer 尽量开大以确保这个“历史数据”表的数据写入速度。 change buffer 和 redo log
理解了change buffer的原理你可能会联想到我在前面文章中和你介绍过的redo log和WAL。 在前面文章的评论中我发现有同学混淆了redo log和change buffer。WAL 提升性能的核心机制也的确是尽量减少随机读写这两个概念确实容易混淆。所以这里我把它们放到了同一个流程里来说明便于你区分这两个概念。 备注这里你可以再回顾下第2篇文章《日志系统一条SQL更新语句是如何执行的》中的相关内容。 现在我们要在表上执行这个插入语句 mysql insert into t(id,k) values(id1,k1),(id2,k2);这里我们假设当前k索引树的状态查找到位置后k1所在的数据页在内存(InnoDB buffer pool)中k2所在的数据页不在内存中。如图2所示是带change buffer的更新状态图。 图2 带change buffer的更新过程
分析这条更新语句你会发现它涉及了四个部分内存、redo logib_log_fileX、 数据表空间t.ibd、系统表空间ibdata1。 这条更新语句做了如下的操作按照图中的数字顺序 Page 1在内存中直接更新内存 Page 2没有在内存中就在内存的change buffer区域记录下“我要往Page 2插入一行”这个信息 将上述两个动作记入redo log中图中3和4。 做完上面这些事务就可以完成了。所以你会看到执行这条更新语句的成本很低就是写了两处内存然后写了一处磁盘两次操作合在一起写了一次磁盘而且还是顺序写的。 同时图中的两个虚线箭头是后台操作不影响更新的响应时间。 那在这之后的读请求要怎么处理呢 比如我们现在要执行 select * from t where k in (k1, k2)。这里我画了这两个读请求的流程图。 如果读语句发生在更新语句后不久内存中的数据都还在那么此时的这两个读操作就与系统表空间ibdata1和 redo logib_log_fileX无关了。所以我在图中就没画出这两部分。 图3 带change buffer的读过程
从图中可以看到 读Page 1的时候直接从内存返回。有几位同学在前面文章的评论中问到WAL之后如果读数据是不是一定要读盘是不是一定要从redo log里面把数据更新以后才可以返回其实是不用的。你可以看一下图3的这个状态虽然磁盘上还是之前的数据但是这里直接从内存返回结果结果是正确的。 要读Page 2的时候需要把Page 2从磁盘读入内存中然后应用change buffer里面的操作日志生成一个正确的版本并返回结果。 可以看到直到需要读Page 2的时候这个数据页才会被读入内存。 所以如果要简单地对比这两个机制在提升更新性能上的收益的话redo log 主要节省的是随机写磁盘的IO消耗转成顺序写而change buffer主要节省的则是随机读磁盘的IO消耗。 小结
今天我从普通索引和唯一索引的选择开始和你分享了数据的查询和更新过程然后说明了change buffer的机制以及应用场景最后讲到了索引选择的实践。 由于唯一索引用不上change buffer的优化机制因此如果业务可以接受从性能角度出发我建议你优先考虑非唯一索引。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/931595.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!