mysql limit 优化分页查询

小浪SEO博客 专注SEO优化思维、SEO技术的实战分享类博客~

limit优化我们分享了非常多的方法,但是看到文章操作方法都一相,下面我介绍的主要是子查询优化方法了,希望例子对各位有帮助.

最近做的一个网站谷歌站长工具提示sitemap访问超时,这是为毛原因呢?之前不是好好的么?进入mysql发现某个进程等待时间比较长,进一步发现原来是这样分页的mysql语句,因为文章比较多,而且是直接生成xml文件,全部笼统第调出所有文章aid,然后由php组和生成sitemap,我的分页mysql,类似如下:

select id,title from collect limit 1000,10; 很快,基本上0.01秒就OK

select id,title from collect limit 90000,10; 从9万条开始分页,结果?

select aid from articles order by aid limit 80000,4000

当然,前面几页数据还挺快的,上了一二十页后,等待的时间特别长.

最终优化如下:select aid from articles where aid >=(select aid from articles order by aid limit 80000,1) order by aid desc limit 4000

这样一来,效率瞬间提高,有木有?必须得有阿.

最后做个小总结:直接用limit分页查询,在数据量较小的情况下那是相当给力,随着翻页到后面,效率瞬间下降,于是用上面第二句可解决问题,此两句结合使用,将是天下无双了吧.

补充:子查询用了join来优化

select id , login_name , password from user join (select id from user order by login_name limit 200000 , 10) as user2 using(id);用了0.5x秒//phpfensi.com

explain 上述

三次查询,1,using index 的limit,2,没看懂,可能是join的过程,3, 主键in查询 10条,飞快

相关广告
  • mysql limit 优化分页查询 mysql limit 优化分页查询 mysql limit 优化分页查询
相关阅读

mysql limit 优化分页查询

2019/10/10 17:37:51 | 谷歌SEO算法 | AI科学家