mysql limit 分页优化详解
在mysql中分页会为我们提供limit命令可以直接进行分页了,如果几条数据直接使用limit分页没有一点问题,但是如果几万或百万数据你会发现这样机器会天天卡死.
实现分页,我们一般会使用 select * from table where id >100 limit a,b,当分页过大时,如达到一万页,此时 a =十万,b=10,虽然此处使用到了索引,不用索引情况会更加糟糕,但是通过索引检索后还是需要回表去取 十万零一十条数据,然后丢掉前十万条,返回十条,这个代价明显太大了.
通常的解决方法是,限制总页数,因为通过没有用户会对一万页后的数据感兴趣,当然也可以通过coreseek sphinx 等实现.
当然也可以通过sql来优化,下面我们通过一个子查询来实现,代码如下:
select * from table join (select id from table where id>100 limit 10000,10) as b on table.id=b.id
在子句select id from table where id>100 limit 10000,10 中因为列id有索引,查询时会直接通过索引检索并返回,无需回表查找行.
然后外层的关联操作会直接根据关联id去查库,从而取得数据文中不是直接使用limit,而是首先获取到offset的id然后直接使用limit size来获取数据,根据他的数据,明显要好于直接使用limit,这里我具体使用数据分两种情况进行测试,测试环境win2033+p4双核 (3GHZ) +4G内存 MySQL 5.0.19).
1、offset比较小的时候.
select * from yanxue8_visit limit 10,10
多次运行,时间保持在0.0004-0.0005之间,代码如下:
- Select*Fromyanxue8_visitWherevid>=(
- SelectvidFromyanxue8_visitOrderByvidlimit10,1
- )limit10
多次运行,时间保持在0.0005-0.0006之间,主要是0.0006.
结论:偏移offset较小的时候,直接使用limit较优,这个显然是子查询的原因.
2、offset大的时候.
select * from yanxue8_visit limit 10000,10
多次运行,时间保持在0.0187左右,代码如下:
- Select*Fromyanxue8_visitWherevid>=(
- SelectvidFromyanxue8_visitOrderByvidlimit10000,1
- )limit10//phpfensi.com
多次运行,时间保持在0.0061左右,只有前者的1/3,可以预计offset越大,后者越优,以后要注意改正自己的limit语句,优化一下MySQL了.
热门评论