对于初学者使用mysql分页是非常的简单了,但如果你使用到10W数据时你会发现limit分页非常的缓慢了,并且查询一次需要40秒左右的时间,下面我来给大家介绍mysql分页优化例子吧,希望文章能给各位带来帮助.
大家都知道分页肯定会用到这两种类型的sql:
1),select count(*) from table where 条件
2),select * from table where 条件(页码数-1)*每页数
当数据量一大(几百w),不管你是用什么存储引擎,这两种sql都会很恶心了.
对于第一种:我表示无解,如果你单表几百万,几千万,即使走覆盖索引也要很长时间,带了where条件,无论是MYISAM还是INNODB都会全表扫描,如果你对结果并不是非要精确,走cache吧,因为被坑了很多次,所以我坚持分表处理,尽量保持单表不过百万.
对于第二种:
(1)首先当然是建立索引了,让查询结果在索引中进行;
(2)只返回需要的自动
(3)先获取到offset的id后,再直接使用limit size来获取数据.
随便创建了一张表,插了一百万的数据,代码如下:
- CREATETABLEIFNOTEXISTS`article`(
- `id`int(11)NOTNULLAUTO_INCREMENT,
- `category_id`int(11)NOTNULL,
- `name`char(16)NOTNULL,
- `content`textNOTNULL,
- PRIMARYKEY(`id`),
- )ENGINE=InnoDBDEFAULTCHARSET=utf8
看看优化效果:
- #查询花费38.6875秒
- SELECTSQL_NO_CACHE*
- FROM`article`
- LIMIT800000,20
- #查询花费0.9375秒
- SELECTSQL_NO_CACHEid,category_id
- FROM`article`
- LIMIT800000,20
- #查询花费0.3594秒
- SELECTSQL_NO_CACHEid,category_id
- FROM`article`
- WHEREid>=(SELECTidFROM`article`LIMIT800000,1)
- LIMIT20
- #查询花费0.0000秒
- SELECTSQL_NO_CACHEid,category_id
- FROM`article`
- WHEREid
- BETWEEN800000 //phpfensi.com
- AND800020
windows下测试可能存在一定误差,当然还有很多其他的方法如建立索引表等待,最后:对于大型平台或系统,用框架啊、什么ORM就行不通了,会让你尴尬的.