精华内容
下载资源
问答
  • MySQL 关于查询时扫描行数与索引的疑问
    2021-01-30 08:43:34

    测试表:

    CREATE TABLE `table_1` (

    `id` int(10) unsigned NOT NULL AUTO_INCREMENT,

    `title` text NOT NULL,

    `category_id` int(10) unsigned NOT NULL,

    PRIMARY KEY (`id`)

    ) ENGINE=InnoDB;

    其中 id 字段是自增主键

    插入 30 行用于测试的数据:

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(5);

    insert into table_1 (`category_id`)values(5);

    insert into table_1 (`category_id`)values(5);

    执行查询:

    mysql> explain select * from `table_1` order by `id` DESC limit 0,5;

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    | 1 | SIMPLE | table_1 | index | NULL | PRIMARY | 4 | NULL | 5 | |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    1 row in set

    这个很好理解,因为 id 是主键,查询中只使用了 order by id ,查询涉及记录行数 rows 5,因为 limit 0,5

    mysql> explain select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    | 1 | SIMPLE | table_1 | index | NULL | PRIMARY | 4 | NULL | 5 | Using where |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    1 row in set

    这个就无法理解了,为什么使用了 where category_id=2 ,用一个非索引字段 where ,该查询涉及的记录数仍然是 5 ?将 category_id=2 改为任何数字,rows 都为 5,实际记录前几条并不是 category_id=2 ,按理应该先跳过 category_id!=2 的然后筛选出符合的结果返回,这样涉及的行数应该大于 5 啊

    更无法理解的是,如果使用该表 category_id 建立索引,同样该 SQL 执行结果:

    mysql> explain select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    | 1 | SIMPLE | table_1 | ref | category_id | category_id | 4 | const | 18 | Using where |

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    1 row in set

    也就是 where category_id=2 涉及行数成了 category_id=2 记录的总数!也就是 18 条

    那么如果数据库中有1千万条数据,均分至 category_id 1-10 的话,这时候需要执行:

    select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    是否需要建立 category_id 索引呢?如果建立每次都要扫描 100 万条索引记录吗?如果不建立任何索引,该 SQL 是否会存在性能问题?

    更多相关内容
  • 文章目录1 选错索引的现象2 优化器的逻辑3 索引选择异常和处理3.1 采用force index强行选择一个索引3.2 第二种方法3.3 第三种方法3.4 第四种方法4 例子中force index(a)的扫描行数为什么是37000 1 选错索引的现象  ...

    1 选错索引的现象

      在MySQL中一张表可以支持多个索引。但是,写SQL语句的时候并没有主动指定使用哪个索引,使用哪个索引是由MySQL来确定的。
      一条本来可以执行得很快的语句,却可能由于MySQL选错了索引会导致执行速度变得很慢。

      创建一个简单的表,表里有a、b两个字段,并分别建上索引:

    CREATE TABLE `t` (
      `id` int(11) NOT NULL,
      `a` int(11) DEFAULT NULL,
      `b` int(11) DEFAULT NULL,
      PRIMARY KEY (`id`),
      KEY `a` (`a`),
      KEY `b` (`b`)
    ) ENGINE=InnoDB;
    

    然后往表t中插入10万行记录,取值按整数递增,即:(1,1,1),(2,2,2),(3,3,3) …

    delimiter ;;
    create procedure idata()
    begin
      declare i int;
      set i=1;
      while(i<=100000)do
        insert into t values(i, i, i);
        set i=i+1;
      end while;
    end;;
    delimiter ;
    call idata();
    

    接下来,分析一条SQL语句:

    select * from t where a between 10000 and 20000;
    

    下图显示用explain命令看到的这条语句的执行情况。
    在这里插入图片描述
    key这个字段值是’a’,表示优化器选择了索引a。

    在已经准备好的包含了10万行数据的表上,再做如下操作。
    在这里插入图片描述
      session A开启了一个事务。随后,session B把数据都删除后,又调用了 idata这个存储过程,插入了10万行数据。

      这时session B的查询语句select * from t where a between 10000 and 20000就不会再选择索引a了。可以通过慢查询日志(slow log)来查看一下具体的执行情况。

      为了对比可以使用force index(a)来让优化器强制使用索引a。

    set long_query_time=0;
    select * from t where a between 10000 and 20000; /*Q1*/
    select * from t force index(a) where a between 10000 and 20000;/*Q2*/
    
    • 第一句,将慢查询日志的阈值设置为0,表示这个线程接下来的语句都会被记录入慢查询日志中;
    • 第二句,Q1是session B原来的查询;
    • 第三句,Q2是加了force index(a)来和session B原来的查询语句执行情况对比。

    慢查询日志如下:
    在这里插入图片描述

    slow log结果

      可以看到,Q1扫描了10万行,显然是走了全表扫描,执行时间是40毫秒。Q2扫描了10001行,执行了21毫秒。在没有使用force index的时候,MySQL用错了索引,导致了更长的执行时间。

    2 优化器的逻辑

      选择索引是优化器的工作。
      优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句。在数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数据的次数越少,消耗的CPU资源越少。

    扫描行数是怎么判断的?
      MySQL在真正开始执行语句之前,并不能精确地知道满足这个条件的记录有多少条,而只能根据统计信息来估算记录数。
      这个统计信息就是索引的“区分度”。一个索引上不同的值越多(重复值越少),这个索引的区分度就越好。一个索引上不同的值的个数称为“基数”(cardinality)。这个基数越大,索引的区分度越好。
      可以使用show index方法,看到一个索引的基数。虽然这个表的每一行的三个字段值都是一样的,但是在统计信息中,这三个索引的基数值并不同,而且其实都不准确。

    MySQL得到索引基数的方法:
      把整张表取出来一行行统计,虽然可以得到精确的结果,但是代价太高了,所以只能选择“采样统计”。
      采样统计的时候,InnoDB默认会选择N个数据页,统计这些页面上的不同值,得到一个平均值,然后乘以这个索引的页面数,得到索引的基数。
      数据表是会持续更新的,索引统计信息也不会固定不变。所以,当变更的数据行数超过N/M的时候,会自动触发重新做一次索引统计。

    在MySQL中,有两种存储索引统计的方式,可以通过设置参数innodb_stats_persistent的值来选择:

    • 设置为on:表示统计信息会持久化存储。这时,默认的N是20,M是10。
    • 设置为off:表示统计信息只存储在内存中。这时,默认的N是8,M是16。

      从图中看到,这次的索引统计值(cardinality列)虽然不够精确,但大体上还是差不多的,选错索引一定还有别的原因。
      其实索引统计只是一个输入,对于一个具体的语句来说,优化器还要判断,执行这个语句本身要扫描多少行。
      再看一下优化器预估的,这两个语句的扫描行数是多少。
    在这里插入图片描述
    rows这个字段表示的是预计扫描行数。
      其中,Q1的结果还是符合预期的,key为NULL的时候,rows的值是104620;但Q2的rows值是37116,偏差就大了。而用explain命令看到的rows是只有10001行,是这个偏差误导了优化器的判断。

    优化器为什么放着扫描37000行的执行计划不用,却选择了扫描行数是100000的执行计划?
      如果使用索引a,每次从索引a上拿到一个值,都要回到主键索引上查出整行数据,这个代价优化器也要算进去的。如果选择扫描10万行,是直接在主键索引上扫描的,没有额外的代价。优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快。

      MySQL选错索引,主要原因还是没能准确地判断出扫描行数。analyze table t 命令,可以用来重新统计索引信息。
    在这里插入图片描述
      所以在实践中,如果发现explain的结果预估的rows值跟实际情况差距比较大,可以采用这个方法来处理。
      其实,如果只是索引统计不准确,通过analyze命令可以解决很多问题,但优化器不止是看扫描行数。

    依然是基于这个表t,另外一个语句:

    select * from t where (a between 1 and 1000)  and (b between 50000 and 100000) order by b limit 1;
    

    从条件上看,这个查询没有符合条件的记录,因此会返回空集合。

    在开始执行这条语句之前,应选择哪一个索引?
    先看一下a、b这两个索引的结构图。

    在这里插入图片描述
      如果使用索引a进行查询,那么就是扫描索引a的前1000个值,然后取到对应的id,再到主键索引上去查出每一行,然后根据字段b来过滤。显然这样需要扫描1000行。
      如果使用索引b进行查询,那么就是扫描索引b的最后50001个值,与上面的执行过程相同,也是需要回到主键索引上取值再判断,所以需要扫描50001行。
    直观上的想法是:如果使用索引a的话,执行速度明显会快很多

    explain select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;
    

    在这里插入图片描述
      可以看到,返回结果中key字段显示,这次优化器选择了索引b,而rows字段显示需要扫描的行数是50198。

    从这个结果中,可以得到两个结论:

    1. 扫描行数的估计值依然不准确;
    2. 这个例子里MySQL又选错了索引。

    3 索引选择异常和处理

    3.1 采用force index强行选择一个索引

      MySQL会根据词法解析的结果分析出可能使用的索引作为候选项,然后在候选列表中依次判断每个索引需要扫描多少行。如果force index指定的索引在候选索引列表中,就直接选择这个索引。

    在这里插入图片描述
      可以看到,原本语句需要执行2.23秒,当使用force index(a)的时候,只用了0.05秒,比优化器的选择快了40多倍。
      优化器没有选择正确的索引,force index起到了“矫正”的作用。

    不过,数据库的问题最好还是在数据库内部来解决。
      既然优化器放弃了使用索引a,说明a还不够合适,所以考虑修改语句,引导MySQL使用我们期望的索引。比如把order by b limit 1改成 order by b,a limit 1 ,语义的逻辑是相同的。
    在这里插入图片描述
      之前优化器选择使用索引b,是因为它认为使用索引b可以避免排序(b本身是索引,已经是有序的了),所以即使扫描行数多,也判定为代价更小。
      现在order by b,a 这种写法,要求按照b,a排序,就意味着使用这两个索引都需要排序。因此,扫描行数成了影响决策的主要条件,于是此时优化器选了只需要扫描1000行的索引a。
      当然,这种修改并不是通用的优化手段,只是刚好在这个语句里面有limit 1,所以,如果有满足条件的记录, order by b limit 1order by b,a limit 1 都会返回b是最小的那一行,逻辑上一致,才可以这么做。

    3.2 第二种方法

    select * from  (select * from t where (a between 1 and 1000)  and (b between 50000 and 100000) order by b limit 100)alias limit 1;
    

    在这里插入图片描述
    limit 100让优化器意识到,使用b索引代价是很高的。其实是根据数据特征诱导了一下优化器,也不具备通用性。

    3.3 第三种方法

      新建一个更合适的索引,来提供给优化器做选择,或删掉误用的索引
      这种情况其实比较少,尤其是经过DBA索引优化过的库,再碰到这个bug,找到一个更合适的索引一般比较难。

    3.4 第四种方法

      删掉索引b

    4 例子中force index(a)的扫描行数为什么是37000

    在这里插入图片描述
      在构造第一个例子的过程中,通过session A的配合,让session B删除数据后又重新插入了一遍数据,然后就发现explain结果中,rows字段从10001变成37000多。

      delete 语句删掉了所有的数据,然后再通过call idata()插入了10万行数据,看上去是覆盖了原来的10万行。
      但是,session A开启了事务并没有提交,所以之前插入的10万行数据是不能删除的。这样,之前的数据每一行数据都有两个版本,旧版本是delete之前的数据,新版本是标记为deleted的数据。
      这样,索引a上的数据其实就有两份。

    另外一个疑问:主键上的数据也没删,没有使用force index的语句,使用explain命令看到的扫描行数还是100000?

      主键是直接按照表的行数来估计的。而表的行数,优化器直接用的是show table status的值。
    在这里插入图片描述

    展开全文
  • 1 选错索引的现象在MySQL中一张表可以支持多个索引。但是,写SQL语句的时候并没有主动指定使用哪个索引,使用哪个索引是由MySQL来确定的。一条本来可以执行得很快的语句,却可能由于MySQL选错了索引会导致执行速度变...

    1 选错索引的现象

    在MySQL中一张表可以支持多个索引。但是,写SQL语句的时候并没有主动指定使用哪个索引,使用哪个索引是由MySQL来确定的。

    一条本来可以执行得很快的语句,却可能由于MySQL选错了索引会导致执行速度变得很慢。

    创建一个简单的表,表里有a、b两个字段,并分别建上索引:

    CREATE TABLE `t` (

    `id` int(11) NOT NULL,

    `a` int(11) DEFAULT NULL,

    `b` int(11) DEFAULT NULL,

    PRIMARY KEY (`id`),

    KEY `a` (`a`),

    KEY `b` (`b`)

    ) ENGINE=InnoDB;

    然后往表t中插入10万行记录,取值按整数递增,即:(1,1,1),(2,2,2),(3,3,3) …

    delimiter ;;

    create procedure idata()

    begin

    declare i int;

    set i=1;

    while(i<=100000)do

    insert into t values(i, i, i);

    set i=i+1;

    end while;

    end;;

    delimiter ;

    call idata();

    接下来,分析一条SQL语句:

    select * from t where a between 10000 and 20000;

    下图显示用explain命令看到的这条语句的执行情况。

    592a3bdcc8171113dfae15c5f7694172.png

    key这个字段值是’a’,表示优化器选择了索引a。

    在已经准备好的包含了10万行数据的表上,再做如下操作。

    f55873c839e61dbf058df0e12b717f42.png

    session A开启了一个事务。随后,session B把数据都删除后,又调用了 idata这个存储过程,插入了10万行数据。

    这时session B的查询语句select * from t where a between 10000 and 20000就不会再选择索引a了。可以通过慢查询日志(slow log)来查看一下具体的执行情况。

    为了对比可以使用force index(a)来让优化器强制使用索引a。

    set long_query_time=0;

    select * from t where a between 10000 and 20000; /*Q1*/

    select * from t force index(a) where a between 10000 and 20000;/*Q2*/

    第一句,将慢查询日志的阈值设置为0,表示这个线程接下来的语句都会被记录入慢查询日志中;

    第二句,Q1是session B原来的查询;

    第三句,Q2是加了force index(a)来和session B原来的查询语句执行情况对比。

    慢查询日志如下:

    b0288a0c434a6517dd6094a051d2067d.png

    slow log结果

    可以看到,Q1扫描了10万行,显然是走了全表扫描,执行时间是40毫秒。Q2扫描了10001行,执行了21毫秒。在没有使用force index的时候,MySQL用错了索引,导致了更长的执行时间。

    2 优化器的逻辑

    选择索引是优化器的工作。

    优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句。在数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数据的次数越少,消耗的CPU资源越少。

    扫描行数是怎么判断的?

    MySQL在真正开始执行语句之前,并不能精确地知道满足这个条件的记录有多少条,而只能根据统计信息来估算记录数。

    这个统计信息就是索引的“区分度”。一个索引上不同的值越多(重复值越少),这个索引的区分度就越好。一个索引上不同的值的个数称为“基数”(cardinality)。这个基数越大,索引的区分度越好。

    可以使用show index方法,看到一个索引的基数。虽然这个表的每一行的三个字段值都是一样的,但是在统计信息中,这三个索引的基数值并不同,而且其实都不准确。

    MySQL得到索引基数的方法:

    把整张表取出来一行行统计,虽然可以得到精确的结果,但是代价太高了,所以只能选择“采样统计”。

    采样统计的时候,InnoDB默认会选择N个数据页,统计这些页面上的不同值,得到一个平均值,然后乘以这个索引的页面数,得到索引的基数。

    数据表是会持续更新的,索引统计信息也不会固定不变。所以,当变更的数据行数超过N/M的时候,会自动触发重新做一次索引统计。

    在MySQL中,有两种存储索引统计的方式,可以通过设置参数innodb_stats_persistent的值来选择:

    设置为on:表示统计信息会持久化存储。这时,默认的N是20,M是10。

    设置为off:表示统计信息只存储在内存中。这时,默认的N是8,M是16。

    从图中看到,这次的索引统计值(cardinality列)虽然不够精确,但大体上还是差不多的,选错索引一定还有别的原因。

    其实索引统计只是一个输入,对于一个具体的语句来说,优化器还要判断,执行这个语句本身要扫描多少行。

    再看一下优化器预估的,这两个语句的扫描行数是多少。

    2c43514193297cd8580480f2d2442a5d.png

    rows这个字段表示的是预计扫描行数。

    其中,Q1的结果还是符合预期的,key为NULL的时候,rows的值是104620;但Q2的rows值是37116,偏差就大了。而用explain命令看到的rows是只有10001行,是这个偏差误导了优化器的判断。

    优化器为什么放着扫描37000行的执行计划不用,却选择了扫描行数是100000的执行计划?

    如果使用索引a,每次从索引a上拿到一个值,都要回到主键索引上查出整行数据,这个代价优化器也要算进去的。如果选择扫描10万行,是直接在主键索引上扫描的,没有额外的代价。优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快。

    MySQL选错索引,主要原因还是没能准确地判断出扫描行数。analyze table t 命令,可以用来重新统计索引信息。

    e759e94a33c1564e6419d7f8d56a8e7a.png

    所以在实践中,如果发现explain的结果预估的rows值跟实际情况差距比较大,可以采用这个方法来处理。

    其实,如果只是索引统计不准确,通过analyze命令可以解决很多问题,但优化器不止是看扫描行数。

    依然是基于这个表t,另外一个语句:

    select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;

    从条件上看,这个查询没有符合条件的记录,因此会返回空集合。

    在开始执行这条语句之前,应选择哪一个索引?

    先看一下a、b这两个索引的结构图。

    bc21a77830b179af81418f8b9030e53b.png

    如果使用索引a进行查询,那么就是扫描索引a的前1000个值,然后取到对应的id,再到主键索引上去查出每一行,然后根据字段b来过滤。显然这样需要扫描1000行。

    如果使用索引b进行查询,那么就是扫描索引b的最后50001个值,与上面的执行过程相同,也是需要回到主键索引上取值再判断,所以需要扫描50001行。

    直观上的想法是:如果使用索引a的话,执行速度明显会快很多

    explain select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;

    3a5f667659a3583d0d6dc1fc9e29f8cd.png

    可以看到,返回结果中key字段显示,这次优化器选择了索引b,而rows字段显示需要扫描的行数是50198。

    从这个结果中,可以得到两个结论:

    扫描行数的估计值依然不准确;

    这个例子里MySQL又选错了索引。

    3 索引选择异常和处理

    3.1 采用force index强行选择一个索引

    MySQL会根据词法解析的结果分析出可能使用的索引作为候选项,然后在候选列表中依次判断每个索引需要扫描多少行。如果force index指定的索引在候选索引列表中,就直接选择这个索引。

    f7b7a5744cf22ab9310d762523ab7c73.png

    可以看到,原本语句需要执行2.23秒,当使用force index(a)的时候,只用了0.05秒,比优化器的选择快了40多倍。

    优化器没有选择正确的索引,force index起到了“矫正”的作用。

    不过,数据库的问题最好还是在数据库内部来解决。

    既然优化器放弃了使用索引a,说明a还不够合适,所以考虑修改语句,引导MySQL使用我们期望的索引。比如把order by b limit 1改成 order by b,a limit 1 ,语义的逻辑是相同的。

    770bd164f2258b9b6f7030052e3c76ca.png

    之前优化器选择使用索引b,是因为它认为使用索引b可以避免排序(b本身是索引,已经是有序的了),所以即使扫描行数多,也判定为代价更小。

    现在order by b,a 这种写法,要求按照b,a排序,就意味着使用这两个索引都需要排序。因此,扫描行数成了影响决策的主要条件,于是此时优化器选了只需要扫描1000行的索引a。

    当然,这种修改并不是通用的优化手段,只是刚好在这个语句里面有limit 1,所以,如果有满足条件的记录, order by b limit 1和order by b,a limit 1 都会返回b是最小的那一行,逻辑上一致,才可以这么做。

    3.2 第二种方法

    select * from (select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 100)alias limit 1;

    e04553a9a58adbe1649d19d227bc6e4d.png

    用limit 100让优化器意识到,使用b索引代价是很高的。其实是根据数据特征诱导了一下优化器,也不具备通用性。

    3.3 第三种方法

    新建一个更合适的索引,来提供给优化器做选择,或删掉误用的索引。

    这种情况其实比较少,尤其是经过DBA索引优化过的库,再碰到这个bug,找到一个更合适的索引一般比较难。

    3.4 第四种方法

    删掉索引b

    4 例子中force index(a)的扫描行数为什么是37000

    d7ff5c4d5a7cb973ef9867ce29821350.png

    在构造第一个例子的过程中,通过session A的配合,让session B删除数据后又重新插入了一遍数据,然后就发现explain结果中,rows字段从10001变成37000多。

    delete 语句删掉了所有的数据,然后再通过call idata()插入了10万行数据,看上去是覆盖了原来的10万行。

    但是,session A开启了事务并没有提交,所以之前插入的10万行数据是不能删除的。这样,之前的数据每一行数据都有两个版本,旧版本是delete之前的数据,新版本是标记为deleted的数据。

    这样,索引a上的数据其实就有两份。

    另外一个疑问:主键上的数据也没删,没有使用force index的语句,使用explain命令看到的扫描行数还是100000?

    主键是直接按照表的行数来估计的。而表的行数,优化器直接用的是show table status的值。

    709909fd4022f516bbd31bcce90252a6.png

    本文同步分享在 博客“小王曾是少年”(CSDN)。

    如有侵权,请联系 support@oschina.cn 删除。

    本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

    展开全文
  • 作为一个单独的查询语句,扫描行数就只扫描 limit 限制的条数。 嵌套查询 ``` EXPLAIN SELECT * FROM ( SELECT id, db_id, warehouse_id, updated_at FROM salesorderskus ORDER BY db_id, warehouse_id,...
  • MySQL 关于查询时扫描行数与索引的疑问测试表:CREATE TABLE `table_1` (`id` int(10) unsigned NOT NULL AUTO_INCREMENT,`title` text NOT NULL,`category_id` int(10) unsigned NOT NULL,PRIMARY KEY (`id`)) ...

    MySQL 关于查询时扫描行数与索引的疑问

    测试表:

    CREATE TABLE `table_1` (

    `id` int(10) unsigned NOT NULL AUTO_INCREMENT,

    `title` text NOT NULL,

    `category_id` int(10) unsigned NOT NULL,

    PRIMARY KEY (`id`)

    ) ENGINE=InnoDB;

    其中 id 字段是自增主键

    插入 30 行用于测试的数据:

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(1);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(2);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(3);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(4);

    insert into table_1 (`category_id`)values(5);

    insert into table_1 (`category_id`)values(5);

    insert into table_1 (`category_id`)values(5);

    执行查询:

    mysql> explain select * from `table_1` order by `id` DESC limit 0,5;

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    | 1 | SIMPLE | table_1 | index | NULL | PRIMARY | 4 | NULL | 5 | |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------+

    1 row in set

    这个很好理解,因为 id 是主键,查询中只使用了 order by id ,查询涉及记录行数 rows 5,因为 limit 0,5

    mysql> explain select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    | 1 | SIMPLE | table_1 | index | NULL | PRIMARY | 4 | NULL | 5 | Using where |

    +----+-------------+---------+-------+---------------+---------+---------+------+------+-------------+

    1 row in set

    这个就无法理解了,为什么使用了 where category_id=2 ,用一个非索引字段 where ,该查询涉及的记录数仍然是 5 ?将 category_id=2 改为任何数字,rows 都为 5,实际记录前几条并不是 category_id=2 ,按理应该先跳过 category_id!=2 的然后筛选出符合的结果返回,这样涉及的行数应该大于 5 啊

    更无法理解的是,如果使用该表 category_id 建立索引,同样该 SQL 执行结果:

    mysql> explain select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    | 1 | SIMPLE | table_1 | ref | category_id | category_id | 4 | const | 18 | Using where |

    +----+-------------+---------+------+---------------+-------------+---------+-------+------+-------------+

    1 row in set

    也就是 where category_id=2 涉及行数成了 category_id=2 记录的总数!也就是 18 条

    那么如果数据库中有1千万条数据,均分至 category_id 1-10 的话,这时候需要执行:

    select * from `table_1` where `category_id`=2 order by `id` DESC limit 0,5;

    是否需要建立 category_id 索引呢?如果建立每次都要扫描 100 万条索引记录吗?如果不建立任何索引,该 SQL 是否会存在性能问题?

    相关阅读:

    lumen controller 控制器问题

    在U盘上安装Linux系统,存在多个分区如何正确引导?

    td右对齐,然后整列如何设置居中对齐?

    python 无法导入nltk

    关于不同类型数据库之间同步数据问题,谢谢!

    怎么样手机上的页面的主体高度根据屏幕高度自适应呢?

    uiscrollview上子视图的约束问题

    php在服务器端组合静态页面时,多个html的组合会影响效率吗?

    Win 下 Gvim 的 nerd_tree 树,怎么切换盘符?

    svn迁移到git,分支没了?

    drupal设置主菜单路径不成功

    两个不同的页面之间的window对象之间如何通信

    angularjs什么时候渲染model变量?

    求大神 输入in时无反应 Do_command()中有毒啊

    spring中的interceptor和aop中的advice 有啥关系?

    c++中关于列表初始化vector的问题

    ios开发 如何在应用内获取当前周围wifi列表

    关于js的问题

    vue表单验证问题

    python处理excel的问题

    展开全文
  • 转:http://hi.baidu.com/dbaeyes/blog/item/eaf04a878bc6f326c65cc3c3.html小测一下 mysqllimit扫描行数 和order by和索引的关系 <br /> --查询条件字段都在索引里,数据都已经在数据库cache中...
  • 例如“acer”,下面的查询将完成这项工作,但它没有正确编制索引,因为如果有很多与特定标签相关的文章,它会扫描很多行.如何运行查询以获得相同的结果而不扫描大量的行?EXPLAIN SELECT titleFROM tag, articleWHERE ...
  • MySQL数据库操作中,我们在做一些查询的时候总希望能避免数据库引擎做全表扫描,因为全表扫描时间长,而且其中大部分扫描对客户端而言是没有意义的。其实我们可以使用Limit关键字来避免全表扫描的情况,从而提高...
  • 一般优化器选择索引考虑的因素有:扫描行数,是否排序,是否使用临时表。 使用explain分析sql explain是很好的自测命令,勤于使用explain有助于我们写出更合理的sql语句以及建立更合理的索引: mysql> explain ...
  • mysqllimit实现分页

    2022-02-11 20:52:55
    1. 使用limit实现数据的分页显示 需求1:每页显示20条记录,此时显示第1页 SELECT employee_id,last_name FROM employees LIMIT 0,20; 需求2:每页显示20条记录,此时显示第2页 SELECT employee_id,last_name ...
  • 原因是 偏移量越大扫描的行数越多 ,比如 limit 100000 , 10 ,意思是扫描符合条件的 1000010 只要后 10条记录,这样偏移量越大扫描行数越多,就越慢。改为关联子查询会较快些,把多表筛选 limit 改为 单表。与之前...
  • 问题分析:1,explain当估计行数时,不考虑limit,因此可能会对查询估计过多的检查行数。2,类似于SELECT ... FROM TBL LIMIT N这样的全表扫描的查询因为用不到索引将要报告为慢查询,如果--log-queries-not-using-...
  • mysql查询扫描所有行

    2021-02-08 09:46:31
    为了扫描表中的所有行,人们试图围绕mysql查询自己的头我有2个表topic_entry和topic_userCREATE TABLE `topic_entry` (`entry_id` bigint(20) unsigned NOT NULL AUTO_INCREMENT,`topic_id` bigint(20) unsigned NOT...
  • mysql索引选择问题 命中表 A , 推送表B。收到一条命中记录之后往命中表中插入一条记录,并且往订阅了这条任务的所有用户发送数据,发送后往推送表中插入一条数据。 所以 A 和 B 的关系是一对多的关系。 现在需要查看...
  • 如果limit前面有orderby等,肯定是全表扫描了,如果没有这些,确实是执行了一部分扫描。 我exlain了这个语句,发现无论limit后边值为多少,rows...其实这个rows只是显示sql计划的行数,不一定就是真正的扫描行数。 ...
  • mysql mysql45讲 在 MySQL 中一张表其实是可以支持多个索引的。但是,你写 SQL 语句的时候,并没有主动指定使用哪个索引。也就是说,使用哪个索引是由 MySQL 来确定的。 不知道你有没有碰到过这种情况,一条本来...
  • 看到一篇博文说,当查询扫描的数据超过了全表的20%,优化器就不使用索引,而是做全表扫描。这个我之前还不知道,于是也想测试一下。我的MySQL 版本5.7.24 。 表结构: mysql> show create table t_1; CREATE ...
  • MySQL查询性能优化

    2019-08-29 09:36:26
    本文为《高性能MySQL》读书笔记 慢查询基础:优化数据访问 查询性能低下最基本的原因是访问的数据太多。对于低效的查询,我们发现通过下面两个步骤来分析总是很有效的: 确认应用程序是否在检索大量超过需要的...
  • MySQLlimit基本用法很简单。limit接收1或2个整数型参数,如果是2个参数,第一个是指定第一个返回记录行的偏移量,第二个是返回记录行的最大数目。初始记录行的偏移量是0。疑问:对于小的偏移量,直接使用limit来...
  • 为什么用了limit还会进行全表扫描?

    千次阅读 2021-01-19 13:05:26
    你的位置:问答吧->... 问题详情为什么用了limit还会进行全表扫描?现有一张100万行记录的表test,执行以下语句后:explain select * from test limit 80000, 100;返回的rows为1000,000,rows等于总行数,也就是说明...
  • mysql 分页limit 语句

    2021-01-19 22:05:41
    MySQLLimit子句Limit子句可以被用于强制 SELECT 语句返回指定的记录数。Limit接受一个或两个数字参数。参数必须是一个整数常量。如果给定两个参数,第一个参数指定第一个返回记录行的偏移量,第二个参数指定返回...
  • MySQLLimit详解

    2021-01-19 16:41:33
    问题:数据库查询语句,如何只返回...在SQL Server数据库中语法为:SELECT TOP number|percentcolumn_name(s) FROM table_name但是并非所有的数据库系统都支持 TOP 子句,比如Oracle和MySQL,它们有等价的语法。在Or...
  • mysql limit分析

    2021-01-27 16:28:42
    在数据量比较大时,使用limit性能会比较差,即使有索引,性能也不会特别好,甚至有可能更差。一 准备工作建表:CREATE TABLE `people` (`id` int(11) AUTO_INCREMENT NOT NULL,`sex` tinyint(4) NOT NULL,`rating` ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 17,418
精华内容 6,967
关键字:

limit mysql 扫描行数

mysql 订阅