目录
1、插入数据
1.1、批量插入
1.2、手动提交事务
1.3、主键顺序插入
1.4、大批量插入数据
2、主键优化
2.1 页分裂
2.2 主键顺序插入
2.3 主键乱序插入
2.4 页合并
2.5 主键的设计原则
3、order by优化
4、group by优化
5、limit优化
6、count优化
6.1 count的几种用法
7、update优化
7.1 行锁(Row-Level Locking)
7.2 表锁(Table-Level Locking)
1、插入数据
1.1、批量插入
Insert into tb_test values(1,'Tom'),(2,'cat'),(3,'jerry')
1.2、手动提交事务
start transaction; insert into tb_test values(1,'Tom'),(2,'cat’),(3, jerry'); insert into tb_test values(4,'Tom'),(5,'cat'),(6, jerry'); insert into tb_test values(7,'Tom'),(8,'cat'),(9,'jerry'); commit;
1.3、主键顺序插入
主键乱序插入:8 1 9 12 56 0 5 6 89 11 47 主键顺序插入:1 2 3 4 77 78 90 91 92
1.4、大批量插入数据
如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。操作如下:
操作步骤:
-- 1、客户端连接服务端时,加上参数 --local-infile mysql --local-infile -u root -p; -- 2、设置全局参数local_infile为1,开启从本地加载文件导入数据的开关 set global local_infile = 1; -- 3、执行load指令将准备好的数据,加载到表结构中 load data local infile '/root/sql1.log' into table `tb_user` fields terminated by ',' lines terminated by '\n';
主键顺序插入性能高于乱序插入
2、主键优化
在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表(index organized table IOT)
2.1 页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据多大,会行溢出),根据主键排列。
2.2 主键顺序插入
2.3 主键乱序插入
2.4 页合并
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。
当页中删除的记录达到 MERGE THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
MERGE THRESHOLD:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。
2.5 主键的设计原则
- 满足业务需求的情况下,尽量降低主键的长度。
- 插入数据时,尽量选择顺序插入,选择使用AUTOINCREMENT自增主键。
- 尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
- 业务操作时,避免对主键的修改。
3、order by优化
1、Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort bufer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫 FileSort 排序。
2、Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为usingindex,不需要额外排序,操作效率高。
-- 没有创建索引时,根据age,phone进行排序 explain select id,age,phone from tb_user order by age,phone; -- 创建索引 create index idx_user_age_phone_aa on tb_user(age,phone); -- 创建索引后,根据age,phone进行升序排序 explain select id,age,phone from tb_user order by age,phone; -- 创建索引后,根据age,phone进行降序排序 explain select id,age,phone from tb_user order by age desc,phone desc;
- 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则。
- 尽量使用覆盖索引。
- 多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)。
- 如果不可避免的出现filesor,大数据量排序时,可以适当增大排序缓冲区大小sort buffer size(默认256k)。
4、group by优化
- 在分组操作时,可以通过索引来提高效率
- 分组操作时,索引的使用也是满足最左前缀法则的。
5、limit优化
一个常见又非常头疼的问题就是 limit 2000000,10,此时需要MySQL排序前2000010记录,仅仅返回2000000-2000010的记录,其他记录丢弃,查询排序的代价非常大。
优化思路:覆盖索引+子查询
一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化。
-- 直接查询 SELECT * FROM tb_sku limit 1000000,10; -- 25s -- 覆盖索引+子查询 SELECT s.* FROM tb_sku s,(SELECT * FROM tb_sku limit 1000000,10) a WHERE s.id = a.id -- 10s
6、count优化
explain select count(*) from tb_user ;
- MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行count(*)的时候会直接返回这个数,效率很高;
- InnoDB 引擎就麻烦了,它执行 count(*)的时候,需要把数据一行一行地从引擎里面读出来,然后累积计数。
优化思路:自己计数。因为这个计数是由存储引擎所决定的,所以没有好的优化思路
6.1 count的几种用法
- count()是一个聚合函数,对于返回的结果集,一行行地判断,如果count 函数的参数不是 NULL,累计值就加 1,否则不加,最后返回累计值。
- 用法:count(*)、count(主键)、count(字段)、count(1)
1、count(主键)
IinnoD8 引擎会遍历整张表,把每一行的 主键id 值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为nul)。
2、count(字段)
没有notnul 约束:nnoD8引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为nul,不为null,计数累加。
有not null 约束:InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。3、count(1)
InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。
4、count(*)
InnoDB引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。
按照效率排序的话,count(字段)<count(主键 id)<count(1)≈ count(*),所以尽量使用count(*)。
7、update优化
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁
7.1 行锁(Row-Level Locking)
锁定粒度:行锁的粒度较细,它只锁定单个数据行。这意味着在一个事务中对某一行进行修改时,其他事务仍然可以访问表中的其他行。
并发性:由于行锁的粒度较小,它通常能提供更高的并发性能。多个事务可以同时对不同的行进行操作,而不会相互阻塞。
锁定开销:行锁的开销较高,因为需要在每一行上维持锁状态,并且锁的管理比较复杂。
适用场景:行锁适用于需要高并发读写操作的场景,尤其是当操作涉及到大量数据但每次操作只涉及到少量数据行时。
实现机制:InnoDB 存储引擎在 MySQL 中使用行锁来实现多版本并发控制(MVCC)。
7.2 表锁(Table-Level Locking)
锁定粒度:表锁的粒度较粗,它会锁定整个表。这意味着在一个事务中对表进行操作时,其他事务不能对该表进行任何操作,直到锁被释放。
并发性:由于表锁的粒度较大,它通常会降低并发性能。多个事务在操作同一张表时会互相阻塞,影响系统的吞吐量。
锁定开销:表锁的开销较低,因为只需要在表级别管理锁状态,管理的复杂度相对较小。
适用场景:表锁适用于操作频繁但对并发要求较低的场景,或者当表上的操作是大范围的(例如,清空整个表)时。
实现机制:MyISAM 存储引擎在 MySQL 中使用表锁来控制并发。
总结
- 行锁适合需要高并发的场景,因为它允许多个事务同时操作不同的数据行。
- 表锁适合操作较少但需要对整张表施加锁的场景,因为它的管理开销较低,但会影响系统的并发能力。