在Delete或Update后加limit

对于单条记录的删除和更新来说,在delete或update后加limit是一个好习惯。其作用等同于 select 后加 limit。若查询到记录直接返回,不会继续查询。

若是一般的场景中(删除多条),delete后加limit是否合适?

加锁是基于索引的,如果 delete 的 where 条件没有索引,就会扫描到主键索引上,就算只有一条记录,也会锁表。

where 条件上无索引的情况下,delete 会锁整个表的记录,但是 delete 后加 [limit row_count],则是只锁[1-满足删除条数所在行]这些行。

此时 stu_num 字段无索引。

+----+--------------------------------+--------------------+---------+
| id | name                           | address            | stu_num |
+----+--------------------------------+--------------------+---------+
|  3 | 衡水中学                   | 河北省衡水市 |    1000 |
|  4 | 海淀中学                   | 北京市海淀区 |    2000 |
|  5 | 海南中学                   | 海南省          |    2000 |
|  6 | 天津大学附属第一中学 | 天津市和平区 |    1000 |
|  7 | 北京大学附属第一中学 | 北京市海淀区 |    1500 |
|  8 | 宁夏中学                   | 宁夏省          |     400 |
| 15 | 内蒙古中学                | 内蒙古省       |     400 |
| 19 | 陕西第一小学             | 陕西省          |    1400 |
| 22 | 陕西第二中学             | 陕西省          |    1400 |
| 23 | 陕西第三中学             | 陕西省          |    1400 |
+----+--------------------------------+--------------------+---------+
10 rows in set (0.00 sec)

A事务:此时满足条件的主键id最大为15。

mysql> begin;
Query OK, 0 rows affected (0.00 sec)
 
mysql> delete from t_school where stu_num =400 limit 2;
Query OK, 1 row affected (0.00 sec)

B事务查询:即A事务对1-15行加锁,可以看到,加锁查询id=22时没有问题,但是加锁查询id=5时记录被锁了。

mysql> select * from t_school where id =22 for update;
+----+--------------------+-----------+---------+
| id | name               | address   | stu_num |
+----+--------------------+-----------+---------+
| 22 | 陕西第二中学 | 陕西省 |    1400 |
+----+--------------------+-----------+---------+
1 row in set (0.00 sec)
 
mysql> select * from t_school where id =5 for update;
mysql> 2013 - Lost connection to MySQL server during query
mysql> 

当然不推荐delete后的条件没有索引的情况,极易造成死锁。

使用 limit 的语法

delete 后面是支持 limit 关键字的,但仅支持单个参数,也就是 [limit row_count]
当需要用到 order by 排序时,必须 order by + limit 联用,否则 order by 就会被优化器优化掉,被认为无意义。

使用 limit 的好处:

降低写错 sql 的代价;
避免长事务,delete 多行时会对选中的所有行加锁;
delete 数量大时,不加 limit 会导致高 cpu

疑问:

如果你要删除一个表里面的前 10000 行数据,有以下三种方法可以做到:
第一种,直接执行 delete from T limit 10000;
第二种,在一个连接中循环执行 20 次 delete from T limit 500;
第三种,在 20 个连接中同时执行 delete from T limit 500

My Shuai:

方案一,事务相对较长,则占用锁的时间较长,会导致其他客户端等待资源时间较长。
方案二,串行化执行,将相对长的事务分成多次相对短的事务,则每次事务占用锁的时间相对较短,其他客户端在等待相应资源的时间也较短。这样的操作,同时也意味着将资源分片使用(每次执行使用不同片段的资源),可以提高并发性。
方案三,人为自己制造锁竞争,加剧并发量。
方案二相对比较好,具体还要结合实际业务场景。

My Shuai:
不考虑数据表的访问并发量,单纯从这个三个方案来对比的话。

第一个方案,一次占用的锁时间较长,可能会导致其他客户端一直在等待资源。
第二个方案,分成多次占用锁,串行执行,不占有锁的间隙其他客户端可以工作,类似于现在多任务操作系统的时间分片调度,大家分片使用资源,不直接影响使用。
第三个方案,自己制造了锁竞争,加剧并发。
至于选哪一种方案要结合实际场景,综合考虑各个因素吧,比如表的大小,并发量,业务对此表的依赖程度等。

直接delete 10000可能使得执行事务时间过长
效率慢点每次循环都是新的短事务,并且不会锁同一条记录,重复执行DELETE知道影响行为0即可
效率虽高,但容易锁住同一条记录,发生死锁的可能性比较高

update 多表关联 sql 语法 推荐

update table1 tmp join
(
select id,colum from table2 where colum = 'XXX' limit 1000
) as tmp2 on tmp.id = tmp2.id
set tmp.colum = tmp2.colum;

delete 多表关联 sql 语法 推荐

delete from table1 tmp join
(
select id,colum from table2 where colum = 'XXX' limit 1000
) as tmp2 on tmp.id = tmp2.id
set tmp.colum = tmp2.colum;

推荐阅读

delete后加 limit是个好习惯么

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容