精华内容
下载资源
问答
  • MySQL分页查询优化

    2019-05-06 15:49:08
    暂拟:https://www.cnblogs.com/geningchao/p/6649907.html
    展开全文
  • 传统的mysql分页查询 select * from table limit n , m MySQL 执行此类SQL时需要先分页(默认一页1000条数据)通过全表扫描到N行,然后再去取M行。对于此类操作,获取前面少数几行数据会很快,但是随着扫描的记录数越...
  • 【深度】MySQL分页查询优化方案

    千次阅读 2019-03-19 07:17:07
    MySQL是通过select * from order limit offset, N 的方式实现分页查询的。但并不是跳过offset行,而是取offset+N行,然后放弃前offset行,返回N行,当offset很小的时候,是没有问题的,当offset很大的时候,效率就...

    MySQL是通过select * from order limit offset, N 的方式实现分页查询的。但并不是跳过offset行,而是取offset+N行,然后放弃前offset行,返回N行,当offset很小的时候,是没有问题的,当offset很大的时候,效率就非常的地下,要么控制返回的总页数,要么对超过特定阈值的页数进行SQL优化。

    一、首先应该开启慢查询跟踪慢sql

    mysql> show variables like 'slow_query%';
    +---------------------------+----------------------------------+
    | Variable_name             | Value                            |
    +---------------------------+----------------------------------+
    | slow_query_log            | OFF                              |
    | slow_query_log_file       | /mysql/data/localhost-slow.log   |
    +---------------------------+----------------------------------+
    
    mysql> show variables like 'long_query_time';
    +-----------------+-----------+
    | Variable_name   | Value     |
    +-----------------+-----------+
    | long_query_time | 10.000000 |
    +-----------------+-----------+
    

    二、SQL性能优化分析工具

    explain
    profiling
    OPTIMIZER_TRACE
    

    三、分页查询优化方案

    1 确定起始ID,适合ID自增情况
    这种情况下可以前端传递给后端最大的id(xxx),然后根据该id进行过滤并取得一页数据

    select * from student where id>=xxx ORDER BY id desc limit 0,20
    

    2 使用子查询
    原理和(1)一样,即取得起始的id,然后进行查询

    select * from student where id>=(select id from student limit 800000,1) limit 20
    

    这两种方案可以继续优化,速度更快:

    SELECT * FROM table WHERE id BETWEEN 1000000 AND 1000010;
    

    3 ID不自增,需要先找到IDs,再利用聚集索引取数据,不需要回表查

    SELECT * FROM table WHERE id IN(10001, 100002, 1000003...);
    
    展开全文
  • 对于数据库分页查询,也有很多种方法和优化的点。下面简单说一下我知道的一些方法。 准备工作 为了对下面列举的一些优化进行测试,下面针对已有的一张表进行说明。 表名:order_history 描述:某个业务的订单历史表 ...
  • 以下分享一点我的经验 ... 也许耗费几十秒 网上很多优化的方法是这样的 代码如下: SELECT * FROM table WHERE id >= (SELECT id FROM table LIMIT 1000000, 1) LIMIT 10; 是的,速度提升到0.x秒了,看样子还行了 可是,
  • 主要介绍了Mysql Limit 分页查询优化的相关资料,非常不错,介绍的非常详细,具有参考借鉴价值,需要的朋友可以参考下
  • MYSQL百万级数据分页查询优化实战

    万次阅读 2020-04-07 15:47:58
    一、记一次mysql分页查询优化 最近项目中,需要将公司老的订单日志数据迁移到新的ElasticSearch统一日志存储,我们老日志数据是分库分表存储在mysql数据库中(按天分表),单表数据量在500w左右,本人就写了一个小...

    MYSQL大数据量分页查询优化

    一、记一次mysql分页查询优化

    最近项目中,需要将公司老的订单日志数据迁移到新的ElasticSearch统一日志存储,我们老日志数据是分库分表存储在mysql数据库中(按天分表),单表数据量在500w左右,本人就写了一个小程序负责mysql到es的数据迁移,功能其实很简单,但其中出现了一些没有考虑到的问题,比如查询的效率问题,在此做下记录。老日志数据库如下
    数据库按天分表

    CREATE TABLE `OrderOperLog20191210` (
      `ID` int(11) NOT NULL AUTO_INCREMENT COMMENT '主键',
      `A1` varchar(50) NOT NULL DEFAULT '' COMMENT '订单编号',
      `A2` varchar(20) NOT NULL DEFAULT '' COMMENT 'PNR编号',
      `A3` int(11) NOT NULL DEFAULT '0' COMMENT '机票序号(1:支付宝支付操作 / 2:支付宝退款操作)',
      `A4` varchar(20) NOT NULL DEFAULT '' COMMENT '机票编号?',
      `A5` varchar(20) NOT NULL DEFAULT '' COMMENT '日志类型(订单 / 账单 / ……)',
      `A6` varchar(20) NOT NULL DEFAULT '' COMMENT '操作类型(预订 / 出票 / 退票 / 废票 / 手工补单 / 自动出票 / 提交到支付接口 / 收到网上支付通知 / 提交到退款接口 / 收到网上退款通知 / ……)',
      `A7` datetime NOT NULL DEFAULT '1900-01-01 00:00:00' COMMENT '操作时间',
      `A8` varchar(4000) NOT NULL DEFAULT '' COMMENT '操作说明',
      `A9` varchar(20) NOT NULL DEFAULT '' COMMENT '操作单位编号',
      `A10` varchar(100) NOT NULL DEFAULT '' COMMENT '操作单位名称',
      `A11` varchar(50) NOT NULL DEFAULT '' COMMENT '操作员编号',
      `A12` varchar(50) NOT NULL DEFAULT '' COMMENT '操作员名称',
      `PNRContent` varchar(5000) NOT NULL DEFAULT '' COMMENT '操作内容(二进制)',
      `DepartmentID` int(11) NOT NULL DEFAULT '0' COMMENT '能看见该操作的部门编号',
      `DepartmentName` varchar(100) NOT NULL DEFAULT '' COMMENT '能看见该操作的部门名称',
      PRIMARY KEY (`ID`),
      KEY `IDX_OrderOperLog20191210_1` (`A1`),
      KEY `IDX_OrderOperLog20191210_2` (`A6`)
    ) ENGINE=MyISAM AUTO_INCREMENT=112824 DEFAULT CHARSET=utf8 COMMENT='订单操作日志表:';
    
    

    功能其实就是按时间查询老日志数据,批量插入es,这里不多介绍。开发完成后开始运行程序,迁移数据,发现查询速度及其之慢。。。完全不能接受。查询日志,一次请求大概在2分钟左右,排查后发现sql执行占用了大部分时间。
    优化前
    查询日志,发现一次查询耗时在2分钟左右

    二、sql查询优化

    	以下是分页查询的原始语句,按天分页查询数据,一次查询1000条。优化LIMIT分页
    
    分页计算:
    起始:Offset = (pageNumber - 1) * pageSize;
    每页条数:pageSize = 1000
    LIMIT Offset,pageSize 
    
    SELECT ID,A1,A2,A3,A4,A5,A6,A7,A8,A9,A10,A11,A12,PNRContent,departmentID,departmentName FROM OrderOperLog20200103 Order By ID LIMIT 1200000,1000
    分析一下执行sql,发现执行语句并未用到索引,且进行了全表扫描
    explain SELECT ID,A1,A2,A3,A4,A5,A6,A7,A8,A9,A10,A11,A12,PNRContent,departmentID,departmentName FROM OrderOperLog20200103 Order By ID LIMIT 1200000,1000
    {
      "code": 1,
      "message": "ok",
      "content": [
        {
          "id": 1,
          "select_type": "SIMPLE",
          "table": "OrderOperLog20200103",
          "type": "ALL",
          "possible_keys": null,
          "key": null,
          "key_len": null,
          "ref": null,
          "rows": 2254017,
          "Extra": "Using filesort"
        }
      ],
      "time": 1586240844974
    }
    

    在系统中需要进行分页操作的时候,我们通常会使用LIMIT加上偏移量的办法实现,同时加上合适的ORDERBY子句。如果有对应的索引,通常效率会不错,否则,MySQL需要做大量的文件排序操作。这里就出现一个问题,当在偏移量非常大的时候,如limit 1200000,1000这样的查询,MySQL需要查询1201000条记录然后只返回最后1000条,前面12000000条记录都将被抛弃,这样的代价非常高。而且,越到后面,访问的数据越多,表末的数据近乎接近全表扫描。如果查询多个字段,就会造成全表扫描。要优化这种查询,要么是在页面中限制分页的数量,要么是优化大偏移量的性能。
    优化此类分页查询的一个最简单的办法就是尽可能地使用索引覆盖扫描,而不是查询所有的列。然后根据需要做一次关联操作再返回所需的列。对于偏移量很大的时候,这样做的效率会提升非常大。考虑下面的查询:
    注意:在使用order by时,经常出现Using filesort,因此对于此类sql语句需尽力优化,使其尽量使用Using index
    1.先按ID 进行order by排序,id使用index索引排序效率高。
    select ID FROM OrderOperLog20200103 Order By ID LIMIT 1200000,1000

    优化思路一
    我们改成下面的形式,只查出需要的字段,通过子查询使用ID索引扫描出查询记录,再做关联查询带出其他字段。实际就是利用表的覆盖索引来加速分页查询(利用了索引查询的语句中如果只包含了那个索引列(覆盖索引),那么这种情况会查询很快)

    SELECT ID,A1,A6,A7,A8,A9,A10,A11,A12,PNRContent,DepartmentID,DepartmentName FROM OrderOperLog20200103 INNER JOIN (select ID FROM OrderOperLog20200103
    Order By ID LIMIT 1200000,1000) as innerT USING(ID)
    

    这里的“延迟关联”将大大提升查询效率,它让MySQL扫描尽可能少的页面,获取需
    要访问的记录后再根据关联列回原表查询需要的所有列。这个技术也可以用于优化关联
    查询中的LIMIT子句。
    优化思路二
    LIMIT和OFFST的问题,其实是OFFSET的问题.它会导致MySQL扫描大量不需要的
    行然后再抛弃掉。如果可以使用书签记录上次取数据的位置,那么下次就可以直接从该
    书签记录的位置开始扫描,这样就可以避免使用OFFSET。例如,下面先通过内查询,确定OFFSET的位置,

    SELECT ID,A1,A6,A7,A8,A9,A10,A11,A12,PNRContent,DepartmentID,DepartmentName FROM OrderOperLog20200103 
    WHERE ID >= (select ID FROM OrderOperLog20200103 Order By ID LIMIT 1200000,1) LIMIT 1000
    

    因为我们业务日志使用的ID是数据库自增主键,所以这里我们直接可以通过((pageNumber - 1) * pageSize)确定偏移量OFFSET的位置,比如查询1201页,再次优化结果如下

    SELECT ID,A1,A6,A7,A8,A9,A10,A11,A12,PNRContent,DepartmentID,DepartmentName FROM OrderOperLog20200103 
    WHERE ID >1200000 LIMIT 1000
    

    总结
    order by优化
    ①MySQL支持两种方式的排序filesort和index,Using index是指MySQL扫描索引本身完成排序。index效率高,filesort效率低。
    ②order by满足两种情况会使用Using index。
    #1.order by语句使用索引最左前列。
    #2.使用where子句与order by子句条件列组合满足索引最左前列。
    ③尽量在索引列上完成排序,遵循索引建立(索引创建的顺序)时的最佳左前缀法则。
    ④如果order by的条件不在索引列上,就会产生Using filesort。

    分页优化
    1.直接使用数据库提供的SQL语句,SELECT * FROM 表名称 LIMIT M,N,只适用于数据量在千级别。
    2.建立主键或唯一索引, 利用索引来加速分页查询
    3.基于索引再排序,保证数据的查询完整性,利用MySQL支持ORDER操作可以利用索引快速定位部分元组,避免全表扫描
    比如: 读第1000到1019行元组(pk是主键/唯一键).
    SELECT * FROM your_table WHERE pk>=1000 ORDER BY pk ASC LIMIT 0,20
    4.利用"子查询/连接+索引"快速定位元组的位置,然后再读取元组.,就是上面所讲到的例子。

    展开全文
  • Mysql 分页查询优化的几种思路

    千次阅读 2019-06-17 10:33:28
    对于数据库分页查询,也有很多种方法和优化的点。下面简单说一下我知道的一些方法。 准备工作 为了对下面列举的一些优化进行测试,下面针对已有的一张表进行说明。 表名:order_history 描述:某个业务的订单...

    当需要从数据库查询的表有上万条记录的时候,一次性查询所有结果会变得很慢,特别是随着数据量的增加特别明显,这时需要使用分页查询。

    对于数据库分页查询,也有很多种方法和优化的点。下面简单说一下我知道的一些方法。

    准备工作

    为了对下面列举的一些优化进行测试,下面针对已有的一张表进行说明。

    • 表名:order_history

    • 描述:某个业务的订单历史表

    • 主要字段:unsigned int id,tinyint(4) int type

    • 字段情况:该表一共37个字段,不包含text等大型数据,最大为varchar(500),id字段为索引,且为递增。

    • 数据量:5709294

    • MySQL 版本:5.7.16 线下找一张百万级的测试表可不容易,如果需要自己测试的话,可以写shell脚本什么的插入数据进行测试。 以下的 sql 所有语句执行的环境没有发生改变,下面是基本测试结果:

    select count(*) from orders_history;
    

    返回结果:5709294

    三次查询时间分别为:

    • 8903 ms
    • 8323 ms
    • 8401 ms

    一般分页查询

    一般的分页查询使用简单的 limit 子句就可以实现。limit 子句声明如下:

    SELECT * FROM table LIMIT [offset,] rows | rows OFFSET offset
    

    LIMIT 子句可以被用于指定 SELECT 语句返回的记录数。需注意以下几点:

    • 第一个参数指定第一个返回记录行的偏移量,注意从 0开始
    • 第二个参数指定返回记录行的最大数目
    • 如果只给定一个参数:它表示返回最大的记录行数目
    • 第二个参数为 -1 表示检索从某一个偏移量到记录集的结束所有的记录行
    • 初始记录行的偏移量是 0(而不是 1)

    下面是一个应用实例:

    select * from orders_history where type=8 limit 1000,10;
    

    该条语句将会从表 orders_history 中查询 offset:1000开始之后的10条数据,也就是第1001条到第1010条数据( 1001<=id<=1010)。

    数据表中的记录默认使用主键(一般为id)排序,上面的结果相当于:

    select * from orders_history where type=8 order by id limit 10000,10;
    

    三次查询时间分别为:

    • 3040 ms
    • 3063 ms
    • 3018 ms

    针对这种查询方式,下面测试查询记录量对时间的影响:

    select * from orders_history where type=8 limit 10000,1;
    select * from orders_history where type=8 limit 10000,10;
    select * from orders_history where type=8 limit 10000,100;
    select * from orders_history where type=8 limit 10000,1000;
    select * from orders_history where type=8 limit 10000,10000;
    

    三次查询时间如下:

    • 查询1条记录:3072ms 3092ms 3002ms
    • 查询10条记录:3081ms 3077ms 3032ms
    • 查询100条记录:3118ms 3200ms 3128ms
    • 查询1000条记录:3412ms 3468ms 3394ms
    • 查询10000条记录:3749ms 3802ms 3696ms

    另外我还做了十来次查询,从查询时间来看,基本可以确定,在查询记录量低于100时,查询时间基本没有差距,随着查询记录量越来越大,所花费的时间也会越来越多。

    针对查询偏移量的测试:

    select * from orders_history where type=8 limit 100,100;
    select * from orders_history where type=8 limit 1000,100;
    select * from orders_history where type=8 limit 10000,100;
    select * from orders_history where type=8 limit 100000,100;
    select * from orders_history where type=8 limit 1000000,100;
    

    三次查询时间如下:

    • 查询100偏移:25ms 24ms 24ms
    • 查询1000偏移:78ms 76ms 77ms
    • 查询10000偏移:3092ms 3212ms 3128ms
    • 查询100000偏移:3878ms 3812ms 3798ms
    • 查询1000000偏移:14608ms 14062ms 14700ms

    随着查询偏移的增大,尤其查询偏移大于10万以后,查询时间急剧增加。

    这种分页查询方式会从数据库第一条记录开始扫描,所以越往后,查询速度越慢,而且查询的数据越多,也会拖慢总查询速度。

    使用子查询优化

    这种方式先定位偏移位置的 id,然后往后查询,这种方式适用于 id 递增的情况。

    select * from orders_history where type=8 limit 100000,1;
    select id from orders_history where type=8 limit 100000,1;
    select * from orders_history where type=8 and id>=(select id from orders_history where type=8 limit 100000,1) limit 100;
    select * from orders_history where type=8 limit 100000,100;
    

    4条语句的查询时间如下:

    • 第1条语句:3674ms
    • 第2条语句:1315ms
    • 第3条语句:1327ms
    • 第4条语句:3710ms

    针对上面的查询需要注意:

    • 比较第1条语句和第2条语句:使用 select id 代替 select * 速度增加了3倍
    • 比较第2条语句和第3条语句:速度相差几十毫秒
    • 比较第3条语句和第4条语句:得益于 select id 速度增加,第3条语句查询速度增加了3倍

    这种方式相较于原始一般的查询方法,将会增快数倍。

    使用 id 限定优化

    这种方式假设数据表的id是连续递增的,则我们根据查询的页数和查询的记录数可以算出查询的id的范围,可以使用 id between and 来查询:

    select * from orders_history where type=2 and id between 1000000 and 1000100 limit 100;
    

    查询时间:15ms 12ms 9ms

    这种查询方式能够极大地优化查询速度,基本能够在几十毫秒之内完成。限制是只能使用于明确知道id的情况,不过一般建立表的时候,都会添加基本的id字段,这为分页查询带来很多便利。

    还可以有另外一种写法:

    select * from orders_history where id >= 1000001 limit 100;
    

    当然还可以使用 in 的方式来进行查询,这种方式经常用在多表关联的时候进行查询,使用其他表查询的id集合,来进行查询:

    select * from orders_history where id in(select order_id from trade_2 where goods = 'pen') limit 100;
    

    这种 in 查询的方式要注意:某些 mysql 版本不支持在 in 子句中使用 limit。

    使用临时表优化

    这种方式已经不属于查询优化,这儿附带提一下。

    对于使用 id 限定优化中的问题,需要 id 是连续递增的,但是在一些场景下,比如使用历史表的时候,或者出现过数据缺失问题时,可以考虑使用临时存储的表来记录分页的id,使用分页的id来进行 in 查询。

    这样能够极大的提高传统的分页查询速度,尤其是数据量上千万的时候。

    关于数据表的id说明

    一般情况下,在数据库中建立表的时候,强制为每一张表添加 id 递增字段,这样方便查询。

    如果像是订单库等数据量非常庞大,一般会进行分库分表。这个时候不建议使用数据库的 id 作为唯一标识,而应该使用分布式的高并发唯一 id 生成器来生成,并在数据表中使用另外的字段来存储这个唯一标识。

    使用先使用范围查询定位 id (或者索引),然后再使用索引进行定位数据,能够提高好几倍查询速度。即先 select id,然后再 select *;

    展开全文
  • 主要介绍了MySQL百万级数据量分页查询方法及其优化建议,帮助大家更好的处理MySQL数据库,感兴趣的朋友可以了解下
  • 一 背景大部分开发和DBA同行都对分页查询非常非常了解,看帖子翻页需要分页查询,搜索商品也需要分页查询。那么问题来了,遇到上千万或者上亿的数据量怎么快速的拉取全量,比如大...
  • MySQL大数据量分页查询方法及其优化
  • mysql分页查询优化

    2017-06-30 08:55:34
    mysql分页查询优化 当limit基数大的时候 查询速度会变得很慢 这个时候一般 //利用子查询 因为查找id会快很多 select * from hcyuyin_share between (select id from hcyuyin limit 3000000,0) and (select id...
  • MySQL 分页优化

    2018-09-30 09:44:29
    MySQL 可以通过以下方式优化分页效率 更多精彩 更多技术博客,请移步 asing1elife’s blog 问题 MySQL 分页查询多行会导致查询出很多无用数据后再进行筛选,效率低下 例如 limit 1000, 10 会排序出前 1010 行...
  • 本文档针对mysql分页之limit慢的问题,使用联合索引在大数据量的情况下优化limit分页的性能
  • mysql数据量大时使用limit分页,随着页码的增大,查询效率越低下。 实验 1.直接使用用limit start, count分页语句: select * from order limit start, count 当起始页较小时,查询没有性能问题,我们分别看下从10,...
  • 主要介绍了MYSQL分页limit速度太慢的优化方法,需要的朋友可以参考下
  • mysql大数据量分页查询优化技巧

    万次阅读 2017-04-17 16:23:23
    PS:我们知道mysql使用Limit实现了分页查询,在我们平常的Web开发中常用一些通用的分页查询jar包,比如说有名的中国开发者实现的java Pagehelper(Github地址https://github.com/pagehelper/Mybatis-PageHelper),...
  • MySQL order by 分页查询优化

    千次阅读 2017-06-22 09:59:56
    原语句特别复杂,10多个表做关联,还有子查询,执行时间13秒多;优化后 0.208s,执行效率上提升了62.5倍.
  • mysql有种sql优化方式,叫延时关联,即通过使用覆盖索引查询返回需要的主键,再根据主键关联原表获得需要的数据,尤其在大分页查询的场景下,可以提高查询效率。例如下面两行SQL查询语句,在使用覆盖索引的大分页查询...
  • 主要介绍了mysql一对多关联查询分页错误问题的解决方法,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
  • MySQL 中通常我们使用 limit 来完成页面上的分页功能,但是当数据量达到一个很大的值之后,越往后翻页,接口的响应速度就越慢。 本文主要讨论 limit 分页大偏移量慢的原因及优化方案,为了模拟这种情况,下面首先...
  • MySQL分页优化

    2021-01-19 22:29:11
    一般的思路是用MySQL分页功能,即直接在原SQL语句后面增加LIMIT子句。但请注意,虽然你看到的反馈结果只是LIMIT后面指定的数量,于是想当然的以为MySQL只是检索了指定数量的数据,然后给予返回。其实,MySQL内部...
  • MySQL分页性能优化

    2020-12-14 23:09:26
    在对大表进行分页时,如果在服务端实现分页,大多数情况采用SQL的limit语法来实现。但是当页数越来越大时,性能很可能成为问题,尤其是需要查询表的所有字段。  1. 索引与非索引字段  在查询的结果集中,如果只...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 45,140
精华内容 18,056
关键字:

mysql分页查询优化

mysql 订阅