MySQL的分页查询通常通过limit来实现。limit接收1或2个整数型参数,如果是2个参数,第一个是指定第一个返回记录行的偏移量,第二个是返回记录行的最大数目。初始记录行的偏移量是0。为了与PostgreSQL兼容,limit也支持limit # offset #。
问题:
对于小的偏移量,直接使用limit来查询没有什么问题,但随着数据量的增大,越往后分页,limit语句的偏移量就会越大,速度也会明显变慢。
优化思想:避免数据量大时扫描过多的记录
解决:子查询的分页方式或者JOIN分页方式。JOIN分页和子查询分页的效率基本在一个等级上,消耗的时间也基本一致。
下面举个例子。一般MySQL的主键是自增的数字类型,这种情况下可以使用下面的方式进行优化。
以真实的生产环境的6万条数据的一张表为例,比较一下优化前后的查询耗时:
-- 传统limit,文件扫描
[SQL]
SELECT * FROM tableName ORDER BY id LIMIT 50000,2;
受影响的行: 0
时间: 0.171s
-- 子查询方式,索引扫描
[SQL]
SELECT * FROM tableName
WHERE id >= (SELECT id FROM tableName ORDER BY id LIMIT 50000 , 1)
LIMIT 2;
受影响的行: 0
时间: 0.035s
-- JOIN分页方式
[SQL]
SELECT * FROM tableName AS t1
JOIN (SELECT id FROM tableName ORDER BY id LIMIT 50000, 1) AS t2
WHERE t1.id = t2.id ORDER BY t1.id LIMIT 2;
受影响的行: 0
时间: 0.036s
可以看到经过优化性能提高了很多倍。
优化原理:
子查询是在索引上完成的,而普通的查询时在数据文件上完成的。通常来说,索引文件要比数据文件小得多,所以操作起来也会更有效率。因为要取出所有字段内容,第一种需要跨越大量数据块并取出,而第二种基本通过直接根据索引字段定位后,才取出相应内容,效率自然大大提升。因此,对limit的优化,不是直接使用limit,而是首先获取到offset的id,然后直接使用limit size来获取数据。
在实际项目使用,可以利用类似策略模式的方式去处理分页。例如,每页100条数据,判断如果是100页以内,就使用最基本的分页方式;如果大于100,则使用子查询的分页方式。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
您可能感兴趣的文章:- MySql分页时使用limit+order by会出现数据重复问题解决
- 为什么MySQL分页用limit会越来越慢
- mysql优化之query_cache_limit参数说明
- 详解Mysql order by与limit混用陷阱
- MySQL limit分页大偏移量慢的原因及优化方案
- Mysql排序和分页(order by&limit)及存在的坑
- MySQL用limit方式实现分页的实例方法
- MySQL limit使用方法以及超大分页问题解决
- MySQL limit性能分析与优化
- MySQL查询中LIMIT的大offset导致性能低下浅析
- MySQL 用 limit 为什么会影响性能