精华内容
下载资源
问答
  • MySQL数据库查询步骤和缓存原理

    千次阅读 2011-08-31 16:49:45
    MySQL数据库查询步骤和缓存原理  我们晓得,数据库查询功能是我们经常用到的,那么MySQL数据库是如何进行查询的呢?本文我们就来引见一下MySQL数据库查询步调以及缓存本理,接下来就让我们来一路领会一下那一...
      
    

    MySQL数据库查询步骤和缓存原理

      我们晓得,数据库的查询功能是我们经常用到的,那么MySQL数据库是如何进行查询的呢?本文我们就来引见一下MySQL数据库的查询步调以及缓存本理,接下来就让我们来一路领会一下那一部门内容。

      当MySQL收到客户端发送的查询语句时,起首会查抄缓存块外能否缓存外此语句的成果,若是无,则查抄权限,若是能通过权限的查抄则间接前往缓存块外的成果集,我们称之为命外缓存,此时会添加Qcache_hits变量的值。

      若是正在缓存外觅不到此语句的缓存(此时会添加Com_select变量的值),则进入下一步:

      1、MySQL解析器将查询语句分化成一个个标识,并成立一棵“解析树”,解析器会利用MySQL的语析和验证那个查询语句的标识的无效性及标识能否呈现正在恰当的上,它还会查抄字符串外的引号无没无闭合。

      2、预处置器会查抄此“解析树”外的表和列能否具无,列的别号能否混合,最初就是对权限的查抄,而那些查抄特征是解析器不具备的,只能通过预处置器来完成。

      3、若是前面两步都通过了查验,MySQL的劣化器则对“解析树”进行劣化,并按照所预测的施行成本来生成施行成本最低的施行打算。最初施行此打算,存储查询成果,前往成果集给客户端。

      通过上述两个变量值,我们能够通过那个公式计较出缓存的命外率:Qcache_hits/(Qcache_hits_Com_select),通过命外率来查看我们能否能够从缓存外获害。那里无一个问题就是:命外率的几多才是最好的呢?那个没无确定值的,要按照环境而定,若是命外的是那些要筛选大量数据才获得的成果的查询语句(好比说:GROUPBY,COUNT等),即外率很低,但那也是一个很好的命外率值。

      任何不是从缓存块外取得数据的查询语句都称为:缓存错掉(cachemiss),形成缓存错掉无以下几类缘由:

      1、所发送的查询语句是不成缓存的,查询语句不成缓存的缘由无两类:语句包含了不确定值,如CURRENT_DATE,。所获得的成果集太大而无法将它保留到缓存外.那两类缘由形MySQL数据库查询步骤和缓存原理成的成果城市添加Qcache_not_cached变量的值,我们能够查看那个变量的值来查抄我们查询语句的缓存环境.

      2、所发送的查询语句之前没无发送过(第一次发送),所以也不会无什么缓存具无。

      3、所发送的查询语句的成果集之前是具无于缓存外的,但因为内存不脚,MySQL不得不将之前的一些缓存断根,以腾出空间来放放其它新的缓存成果。同样,数据的变动也会激发缓存的掉效。好比(更新,删除,插入)。若是是数据的变量惹起缓存的掉效的话,我们能够通过查看Com_变量的值来确认无几多查询语句更改了数据,那些变量为:Com_update,Com_delete等等

      关于MySQL数据库的查询步调取缓存本理的学问就引见到那里了,但愿本次的引见可以或许对您无所收成!

    展开全文
  • JDBC连接数据库原理步骤

    千次阅读 2017-10-09 10:23:29
    JDBC是Sun公司制定的一个可以用Java语言连接数据库的技术。 一、JDBC基础知识 JDBC(Java Data Base Connectivity,java数据库连接)是一种用于执行SQL语句的Java API,可以为多种关系数据库提供统一访问,它由一...

    JDBC是Sun公司制定的一个可以用Java语言连接数据库的技术。
    一、JDBC基础知识
    JDBC(Java Data Base Connectivity,java数据库连接)是一种用于执行SQL语句的Java API,可以为多种关系数据库提供统一访问,它由一组用Java语言编写的类和接口组成。JDBC为数据库开发人员提供了一个标准的API,据此可以构建更高级的工具和接口,使数据库开发人员能够用纯 Java API 编写数据库应用程序,并且可跨平台运行,并且不受数据库供应商的限制。
    1、跨平台运行:这是继承了Java语言的“一次编译,到处运行”的特点;
    2、不受数据库供应商的限制:巧妙在于JDBC设有两种接口,一个是面向应用程序层,其作用是使得开发人员通过SQL调用数据库和处理结果,而不需要考虑数据库的提供商;另一个是驱动程序层,处理与具体驱动程序的交互,JDBC驱动程序可以利用JDBC API创建Java程序和数据源之间的桥梁。应用程序只需要编写一次,便可以移到各种驱动程序上运行。Sun提供了一个驱动管理器,数据库供应商——如MySQL、Oracle,提供的驱动程序满足驱动管理器的要求就可以被识别,就可以正常工作。所以JDBC不受数据库供应商的限制。

        JDBC API可以作为连接Java应用程序与各种关系数据库的纽带,在带来方便的同时也有负面影响,以下是JDBC的优、缺点。优点如下:
    

    操作便捷:JDBC使得开发人员不需要再使用复杂的驱动器调用命令和函数;
    可移植性强:JDBC支持不同的关系数据库,所以可以使同一个应用程序支持多个数据库的访问,只要加载相应的驱动程序即可;
    通用性好:JDBC-ODBC桥接驱动器将JDBC函数换成ODBC;
    面向对象:可以将常用的JDBC数据库连接封装成一个类,在使用的时候直接调用即可。
    缺点如下:
    访问数据记录的速度受到一定程度的影响;
    更改数据源困难:JDBC可支持多种数据库,各种数据库之间的操作必有不同,这就给更改数据源带来了很大的麻烦

    二、JDBC连接数据库的流程及其原理
    1、在开发环境中加载指定数据库的驱动程序。例如,接下来的实验中,使用的数据库是MySQL,所以需要去下载MySQL支持JDBC的驱动程序(最新的是:mysql-connector-java-5.1.18-bin.jar);而开发环境是MyEclipse,将下载得到的驱动程序加载进开发环境中(具体示例的时候会讲解如何加载)。

    2、在Java程序中加载驱动程序。在Java程序中,可以通过 “Class.forName(“指定数据库的驱动程序”)” 方式来加载添加到开发环境中的驱动程序,例如加载MySQL的数据驱动程序的代码为: Class.forName(“com.mysql.jdbc.Driver”)

    3、创建数据连接对象:通过DriverManager类创建数据库连接对象Connection。DriverManager类作用于Java程序和JDBC驱动程序之间,用于检查所加载的驱动程序是否可以建立连接,然后通过它的getConnection方法,根据数据库的URL、用户名和密码,创建一个JDBC Connection 对象。如:Connection connection = DriverManager.geiConnection(“连接数据库的URL”, “用户名”, “密码”)。其中,URL=协议名+IP地址(域名)+端口+数据库名称;用户名和密码是指登录数据库时所使用的用户名和密码。具体示例创建MySQL的数据库连接代码如下:
    Connection connectMySQL = DriverManager.geiConnection(“jdbc:mysql://localhost:3306/myuser”,”root” ,”root” );

    4、创建Statement对象:Statement 类的主要是用于执行静态 SQL 语句并返回它所生成结果的对象。通过Connection 对象的 createStatement()方法可以创建一个Statement对象。例如:Statement statament = connection.createStatement(); 具体示例创建Statement对象代码如下:
    Statement statamentMySQL =connectMySQL.createStatement();

    5、调用Statement对象的相关方法执行相对应的 SQL 语句:通过execuUpdate()方法用来数据的更新,包括插入和删除等操作,例如向staff表中插入一条数据的代码:
    statement.excuteUpdate( “INSERT INTO staff(name, age, sex,address, depart, worklen,wage)” + ” VALUES (‘Tom1’, 321, ‘M’, ‘china’,’Personnel’,’3’,’3000’ ) “) ;
    通过调用Statement对象的executeQuery()方法进行数据的查询,而查询结果会得到 ResulSet对象,ResulSet表示执行查询数据库后返回的数据的集合,ResulSet对象具有可以指向当前数据行的指针。通过该对象的next()方法,使得指针指向下一行,然后将数据以列号或者字段名取出。如果当next()方法返回null,则表示下一行中没有数据存在。使用示例代码如下:
    ResultSet resultSel = statement.executeQuery( “select * from staff” );

    6、关闭数据库连接:使用完数据库或者不需要访问数据库时,通过Connection的close() 方法及时关闭数据连接。

    三、JDBC应用示例实验
    实验内容:使用phpMyAdmin在MySQL中创建数据库(myuser),并添加实验所需的数据(新建staff表,添加一些记录);编写Java程序,利用JDBC连接在MySQL中创建好的数据库(myuser),对staff表格进行插入、更新、删除和查询等操作。
    实验环境及开发工具:Win7操作系统;jdk1.6.0_26;XAMPP1.7.7(MySQL 5.1, phpMyAdmin);MyEclipse 8.5
    实验环境的搭建:可参考我的博客
    Java环境搭配:http://blog.csdn.net/cxwen78/article/details/6400798
    windows系统XAMPP安装配置使用:http://blog.csdn.net/cxwen78/article/details/6847927
    实验过程及步骤:
    1、下载MySQL支持JDBC的驱动程序:如果已经有了,可跳过这一步。前往MySQL官网(http://www.mysql.com/products/connector/ )下载驱动程序,,MySQL针对不同的平台提供了不同的连接器,我们需要的是DBC Driver for MySQL (Connector/J),如下图所示,点击 Download 跟着网站的引导进行下载。打开下载得到的压缩包(mysql-connector-java-5.1.18.zip),将其中的Java包(mysql-connector-java-5.1.18-bin.jar),复制到MySQL目录下(仅是为了方便才放到这里),以备加载驱动程序时使用。
    这里写图片描述
    这里写图片描述
    这里写图片描述
    2、创建数据库:使用phpMyAdmin,登录MySQL,创建数据库myuser,并在其中插入一个名为staff的表格。并添加一些数据,操作步骤如图,登录进去MySQL数据库后:
    1)创建数据库,名称为myuser,编码为utf8_general_ci(支持中文);
    这里写图片描述
    这里写图片描述
    这里写图片描述
    4)添加成功后,查看的staff表格情况:
    这里写图片描述
    5)往表格中插入一些实验所需数据,需要插入两条,一个是员工lucy的,还有lili的:
    这里写图片描述
    3、在MyEclips中创建项目并在项目中添加MySQL驱动程序:创建的项目类型可以是Java项目或者是Java Web项目都可以。这里创建的是Web项目,项目名称可以随便取,我命名为“JavaWebChp07”。创建成功后将步骤1里下载得到的MySQL驱动程序包(mysql-connector-java-5.1.18-bin.jar)添加到工程的Build path中,添加过程如图所示:这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    4、编写JDBC连接MySQL数据库的实例具体代码,JDBC_Test.java:
    这里写图片描述
    代码块

    [java] view plain copy
    <pre name="code" class="java">package chp07;    
    
    import java.sql.Connection;    
    import java.sql.DriverManager;    
    import java.sql.ResultSet;    
    import java.sql.SQLException;    
    import java.sql.Statement;    
    
    public class JDBC_Test {    
        // 创建静态全局变量    
        static Connection conn;    
    
        static Statement st;    
    
        public static void main(String[] args) {    
            insert();   //插入添加记录    
            update();   //更新记录数据    
            delete();   //删除记录    
            query();    //查询记录并显示    
        }    
    
        /* 插入数据记录,并输出插入的数据记录数*/    
        public static void insert() {    
    
            conn = getConnection(); // 首先要获取连接,即连接到数据库    
    
            try {    
                String sql = "INSERT INTO staff(name, age, sex,address, depart, worklen,wage)"    
                        + " VALUES ('Tom1', 32, 'M', 'china','Personnel','3','3000')";  // 插入数据的sql语句    
    
                st = (Statement) conn.createStatement();    // 创建用于执行静态sql语句的Statement对象    
    
                int count = st.executeUpdate(sql);  // 执行插入操作的sql语句,并返回插入数据的个数    
    
                System.out.println("向staff表中插入 " + count + " 条数据"); //输出插入操作的处理结果    
    
                conn.close();   //关闭数据库连接    
    
            } catch (SQLException e) {    
                System.out.println("插入数据失败" + e.getMessage());    
            }    
        }    
    
        /* 更新符合要求的记录,并返回更新的记录数目*/    
        public static void update() {    
            conn = getConnection(); //同样先要获取连接,即连接到数据库    
            try {    
                String sql = "update staff set wage='2200' where name = 'lucy'";// 更新数据的sql语句    
    
                st = (Statement) conn.createStatement();    //创建用于执行静态sql语句的Statement对象,st属局部变量    
    
                int count = st.executeUpdate(sql);// 执行更新操作的sql语句,返回更新数据的个数    
    
                System.out.println("staff表中更新 " + count + " 条数据");      //输出更新操作的处理结果    
    
                conn.close();   //关闭数据库连接    
    
            } catch (SQLException e) {    
                System.out.println("更新数据失败");    
            }    
        }    
    
        /* 查询数据库,输出符合要求的记录的情况*/    
        public static void query() {    
    
            conn = getConnection(); //同样先要获取连接,即连接到数据库    
            try {    
                String sql = "select * from staff";     // 查询数据的sql语句    
                st = (Statement) conn.createStatement();    //创建用于执行静态sql语句的Statement对象,st属局部变量    
    
                ResultSet rs = st.executeQuery(sql);    //执行sql查询语句,返回查询数据的结果集    
                System.out.println("最后的查询结果为:");    
                while (rs.next()) { // 判断是否还有下一个数据    
    
                    // 根据字段名获取相应的值    
                    String name = rs.getString("name");    
                    int age = rs.getInt("age");    
                    String sex = rs.getString("sex");    
                    String address = rs.getString("address");    
                    String depart = rs.getString("depart");    
                    String worklen = rs.getString("worklen");    
                    String wage = rs.getString("wage");    
    
                    //输出查到的记录的各个字段的值    
                    System.out.println(name + " " + age + " " + sex + " " + address    
                            + " " + depart + " " + worklen + " " + wage);    
    
                }    
                conn.close();   //关闭数据库连接    
    
            } catch (SQLException e) {    
                System.out.println("查询数据失败");    
            }    
        }    
    
        /* 删除符合要求的记录,输出情况*/    
        public static void delete() {    
    
            conn = getConnection(); //同样先要获取连接,即连接到数据库    
            try {    
                String sql = "delete from staff  where name = 'lili'";// 删除数据的sql语句    
                st = (Statement) conn.createStatement();    //创建用于执行静态sql语句的Statement对象,st属局部变量    
    
                int count = st.executeUpdate(sql);// 执行sql删除语句,返回删除数据的数量    
    
                System.out.println("staff表中删除 " + count + " 条数据\n");    //输出删除操作的处理结果    
    
                conn.close();   //关闭数据库连接    
    
            } catch (SQLException e) {    
                System.out.println("删除数据失败");    
            }    
    
        }    
    
        /* 获取数据库连接的函数*/    
        public static Connection getConnection() {    
            Connection con = null;  //创建用于连接数据库的Connection对象    
            try {    
                Class.forName("com.mysql.jdbc.Driver");// 加载Mysql数据驱动    
    
                con = DriverManager.getConnection(    
                        "jdbc:mysql://localhost:3306/myuser", "root", "root");// 创建数据连接    
    
            } catch (Exception e) {    
                System.out.println("数据库连接失败" + e.getMessage());    
            }    
            return con; //返回所建立的数据库连接    
        }    
    }    
    展开全文
  • 数据库原理

    千次阅读 2016-05-04 16:33:33
    你可以自己谷歌/百度一下『关系型数据库原理』,看看结果多么的稀少【译者注:百度为您找到相关结果约1,850,000个…】 ,而且找到的那些文章都很短。现在如果你查找最近时髦的技术(大数据、NoSQL或JavaScript

    一提到关系型数据库,我禁不住想:有些东西被忽视了。关系型数据库无处不在,而且种类繁多,从小巧实用的 SQLite 到强大的 Teradata 。但很少有文章讲解数据库是如何工作的。你可以自己谷歌/百度一下『关系型数据库原理』,看看结果多么的稀少【译者注:百度为您找到相关结果约1,850,000个…】 ,而且找到的那些文章都很短。现在如果你查找最近时髦的技术(大数据、NoSQL或JavaScript),你能找到更多深入探讨它们如何工作的文章。

    难道关系型数据库已经太古老太无趣,除了大学教材、研究文献和书籍以外,没人愿意讲了吗?

    作为一个开发人员,我不喜欢用我不明白的东西。而且,数据库已经使用了40年之久,一定有理由的。多年以来,我花了成百上千个小时来真正领会这些我每天都在用的、古怪的黑盒子。关系型数据库非常有趣,因为它们是基于实用而且可复用的概念。如果你对了解一个数据库感兴趣,但是从未有时间或意愿来刻苦钻研这个内容广泛的课题,你应该喜欢这篇文章。

    虽然本文标题很明确,但我的目的并不是讲如何使用数据库。因此,你应该已经掌握怎么写一个简单的 join query(联接查询)和CRUD操作(创建读取更新删除),否则你可能无法理解本文。这是唯一需要你了解的,其他的由我来讲解。

    我会从一些计算机科学方面的知识谈起,比如时间复杂度。我知道有些人讨厌这个概念,但是没有它你就不能理解数据库内部的巧妙之处。由于这是个很大的话题,我将集中探讨我认为必要的内容:数据库处理SQL查询的方式。我仅仅介绍数据库背后的基本概念,以便在读完本文后你会对底层到底发生了什么有个很好的了解

    【译者注:关于时间复杂度。计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间。如果不了解这个概念建议先看看维基百度百科,对于理解文章下面的内容很有帮助】

    由于本文是个长篇技术文章,涉及到很多算法和数据结构知识,你尽可以慢慢读。有些概念比较难懂,你可以跳过,不影响理解整体内容。

    这篇文章大约分为3个部分:

    • 底层和上层数据库组件概况
    • 查询优化过程概况
    • 事务和缓冲池管理概况

    回到基础

    很久很久以前(在一个遥远而又遥远的星系……),开发者必须确切地知道他们的代码需要多少次运算。他们把算法和数据结构牢记于心,因为他们的计算机运行缓慢,无法承受对CPU和内存的浪费。

    在这一部分,我将提醒大家一些这类的概念,因为它们对理解数据库至关重要。我还会介绍数据库索引的概念。

    O(1) vs O(n^2)

    现今很多开发者不关心时间复杂度……他们是对的。

    但是当你应对大量的数据(我说的可不只是成千上万哈)或者你要争取毫秒级操作,那么理解这个概念就很关键了。而且你猜怎么着,数据库要同时处理这两种情景!我不会占用你太长时间,只要你能明白这一点就够了。这个概念在下文会帮助我们理解什么是基于成本的优化

    概念

    时间复杂度用来检验某个算法处理一定量的数据要花多长时间。为了描述这个复杂度,计算机科学家使用数学上的『简明解释算法中的大O符号』。这个表示法用一个函数来描述算法处理给定的数据需要多少次运算。

    比如,当我说『这个算法是适用 O(某函数())』,我的意思是对于某些数据,这个算法需要 某函数(数据量) 次运算来完成。

    重要的不是数据量,而是当数据量增加时运算如何增加。时间复杂度不会给出确切的运算次数,但是给出的是一种理念。

    图中可以看到不同类型的复杂度的演变过程,我用了对数尺来建这个图。具体点儿说,数据量以很快的速度从1条增长到10亿条。我们可得到如下结论:

    • 绿:O(1)或者叫常数阶复杂度,保持为常数(要不人家就不会叫常数阶复杂度了)。
    • 红:O(log(n))对数阶复杂度,即使在十亿级数据量时也很低。
    • 粉:最糟糕的复杂度是 O(n^2),平方阶复杂度,运算数快速膨胀。
    • 黑和蓝:另外两种复杂度(的运算数也是)快速增长。

    例子

    数据量低时,O(1) 和 O(n^2)的区别可以忽略不计。比如,你有个算法要处理2000条元素。

    • O(1) 算法会消耗 1 次运算
    • O(log(n)) 算法会消耗 7 次运算
    • O(n) 算法会消耗 2000 次运算
    • O(n*log(n)) 算法会消耗 14,000 次运算
    • O(n^2) 算法会消耗 4,000,000 次运算

    O(1) 和 O(n^2) 的区别似乎很大(4百万),但你最多损失 2 毫秒,只是一眨眼的功夫。确实,当今处理器每秒可处理上亿次的运算。这就是为什么性能和优化在很多IT项目中不是问题。

    我说过,面临海量数据的时候,了解这个概念依然很重要。如果这一次算法需要处理 1,000,000 条元素(这对数据库来说也不算大)。

    • O(1) 算法会消耗 1 次运算
    • O(log(n)) 算法会消耗 14 次运算
    • O(n) 算法会消耗 1,000,000 次运算
    • O(n*log(n)) 算法会消耗 14,000,000 次运算
    • O(n^2) 算法会消耗 1,000,000,000,000 次运算

    我没有具体算过,但我要说,用O(n^2) 算法的话你有时间喝杯咖啡(甚至再续一杯!)。如果在数据量后面加个0,那你就可以去睡大觉了。

    继续深入

    为了让你能明白

    • 搜索一个好的哈希表会得到 O(1) 复杂度
      • 搜索一个均衡的树会得到 O(log(n)) 复杂度
      • 搜索一个阵列会得到 O(n) 复杂度
      • 最好的排序算法具有 O(n*log(n)) 复杂度
      • 糟糕的排序算法具有 O(n^2) 复杂度

    注:在接下来的部分,我们将会研究这些算法和数据结构。

    有多种类型的时间复杂度

    • 一般情况场景
    • 最佳情况场景
    • 最差情况场景

    时间复杂度经常处于最差情况场景。

    这里我只探讨时间复杂度,但复杂度还包括:

    • 算法的内存消耗
    • 算法的磁盘 I/O 消耗

    当然还有比 n^2 更糟糕的复杂度,比如:

    • n^4:差劲!我将要提到的一些算法具备这种复杂度。
    • 3^n:更差劲!本文中间部分研究的一些算法中有一个具备这种复杂度(而且在很多数据库中还真的使用了)。
    • 阶乘 n:你永远得不到结果,即便在少量数据的情况下。
    • n^n:如果你发展到这种复杂度了,那你应该问问自己IT是不是你的菜。

    注:我并没有给出『大O表示法』的真正定义,只是利用这个概念。可以看看维基百科上的这篇文章

    合并排序

    当你要对一个集合排序时你怎么做?什么?调用 sort() 函数……好吧,算你对了……但是对于数据库,你需要理解这个 sort() 函数的工作原理。

    优秀的排序算法有好几个,我侧重于最重要的一种:合并排序。你现在可能还不了解数据排序有什么用,但看完查询优化部分后你就会知道了。再者,合并排序有助于我们以后理解数据库常见的联接操作,即合并联接 。

    合并

    与很多有用的算法类似,合并排序基于这样一个技巧:将 2 个大小为 N/2 的已排序序列合并为一个 N 元素已排序序列仅需要 N 次操作。这个方法叫做合并

    我们用个简单的例子来看看这是什么意思:

    通过此图你可以看到,在 2 个 4元素序列里你只需要迭代一次,就能构建最终的8元素已排序序列,因为两个4元素序列已经排好序了:

    • 1) 在两个序列中,比较当前元素(当前=头一次出现的第一个)
    • 2) 然后取出最小的元素放进8元素序列中
    • 3) 找到(两个)序列的下一个元素,(比较后)取出最小的
    • 重复1、2、3步骤,直到其中一个序列中的最后一个元素
    • 然后取出另一个序列剩余的元素放入8元素序列中。

    这个方法之所以有效,是因为两个4元素序列都已经排好序,你不需要再『回到』序列中查找比较。

    【译者注:合并排序详细原理,其中一个动图(原图较长,我做了删减)清晰的演示了上述合并排序的过程,而原文的叙述似乎没有这么清晰,不动戳大。】

    既然我们明白了这个技巧,下面就是我的合并排序伪代码。

    合并排序是把问题拆分为小问题,通过解决小问题来解决最初的问题(注:这种算法叫分治法,即『分而治之、各个击破』)。如果你不懂,不用担心,我第一次接触时也不懂。如果能帮助你理解的话,我认为这个算法是个两步算法:

    • 拆分阶段,将序列分为更小的序列
    • 排序阶段,把小的序列合在一起(使用合并算法)来构成更大的序列

    拆分阶段

    在拆分阶段过程中,使用3个步骤将序列分为一元序列。步骤数量的值是 log(N) (因为 N=8, log(N)=3)。【译者注:底数为2,下文有说明】

    我怎么知道这个的?

    我是天才!一句话:数学。道理是每一步都把原序列的长度除以2,步骤数就是你能把原序列长度除以2的次数。这正好是对数的定义(在底数为2时)。

    排序阶段

    在排序阶段,你从一元序列开始。在每一个步骤中,你应用多次合并操作,成本一共是 N=8 次运算。

    • 第一步,4 次合并,每次成本是 2 次运算。
    • 第二步,2 次合并,每次成本是 4 次运算。
    • 第三步,1 次合并,成本是 8 次运算。

    因为有 log(N) 个步骤,整体成本是 N*log(N) 次运算

    【译者注:这个完整的动图演示了拆分和排序的全过程,不动戳大。】

    合并排序的强大之处

    为什么这个算法如此强大?

    因为:

    • 你可以更改算法,以便于节省内存空间,方法是不创建新的序列而是直接修改输入序列。

    注:这种算法叫『原地算法』(in-place algorithm)

    • 你可以更改算法,以便于同时使用磁盘空间和少量内存而避免巨量磁盘 I/O。方法是只向内存中加载当前处理的部分。在仅仅100MB的内存缓冲区内排序一个几个GB的表时,这是个很重要的技巧。

    注:这种算法叫『外部排序』(external sorting)。

    • 你可以更改算法,以便于在 多处理器/多线程/多服务器 上运行。

    比如,分布式合并排序是Hadoop(那个著名的大数据框架)的关键组件之一。

    • 这个算法可以点石成金(事实如此!)

    这个排序算法在大多数(如果不是全部的话)数据库中使用,但是它并不是唯一算法。如果你想多了解一些,你可以看看 这篇论文,探讨的是数据库中常用排序算法的优势和劣势。

    阵列,树和哈希表

    既然我们已经了解了时间复杂度和排序背后的理念,我必须要向你介绍3种数据结构了。这个很重要,因为它们是现代数据库的支柱。我还会介绍数据库索引的概念。

    阵列

    二维阵列是最简单的数据结构。一个表可以看作是个阵列,比如:

    这个二维阵列是带有行与列的表:

    • 每个行代表一个主体
    • 列用来描述主体的特征
    • 每个列保存某一种类型对数据(整数、字符串、日期……)

    虽然用这个方法保存和视觉化数据很棒,但是当你要查找特定的值它就很糟糕了。 举个例子,如果你要找到所有在 UK 工作的人,你必须查看每一行以判断该行是否属于 UK 。这会造成 N 次运算的成本(N 等于行数),还不赖嘛,但是有没有更快的方法呢?这时候树就可以登场了(或开始起作用了)。

    树和数据库索引

    二叉查找树是带有特殊属性的二叉树,每个节点的关键字必须:

    • 比保存在左子树的任何键值都要大
    • 比保存在右子树的任何键值都要小

    【译者注:binary search tree,二叉查找树/二叉搜索树,或称 Binary Sort Tree 二叉排序树。见百度百科 】

    概念

    这个树有 N=15 个元素。比方说我要找208:

    • 我从键值为 136 的根开始,因为 136<208,我去找节点136的右子树。
    • 398>208,所以我去找节点398的左子树
    • 250>208,所以我去找节点250的左子树
    • 200<208,所以我去找节点200的右子树。但是 200 没有右子树,值不存在(因为如果存在,它会在 200 的右子树)

    现在比方说我要找40

    • 我从键值为136的根开始,因为 136>40,所以我去找节点136的左子树。
    • 80>40,所以我去找节点 80 的左子树
    • 40=40,节点存在。我抽取出节点内部行的ID(图中没有画)再去表中查找对应的 ROW ID。
    • 知道 ROW ID我就知道了数据在表中对精确位置,就可以立即获取数据。

    最后,两次查询的成本就是树内部的层数。如果你仔细阅读了合并排序的部分,你就应该明白一共有 log(N)层。所以这个查询的成本是 log(N),不错啊!

    回到我们的问题

    上文说的很抽象,我们回来看看我们的问题。这次不用傻傻的数字了,想象一下前表中代表某人的国家的字符串。假设你有个树包含表中的列『country』:

    • 如果你想知道谁在 UK 工作
    • 你在树中查找代表 UK 的节点
    • 在『UK 节点』你会找到 UK 员工那些行的位置

    这次搜索只需 log(N) 次运算,而如果你直接使用阵列则需要 N 次运算。你刚刚想象的就是一个数据库索引

    B+树索引

    查找一个特定值这个树挺好用,但是当你需要查找两个值之间的多个元素时,就会有麻烦了。你的成本将是 O(N),因为你必须查找树的每一个节点,以判断它是否处于那 2 个值之间(例如,对树使用中序遍历)。而且这个操作不是磁盘I/O有利的,因为你必须读取整个树。我们需要找到高效的范围查询方法。为了解决这个问题,现代数据库使用了一种修订版的树,叫做B+树。在一个B+树里:

    • 只有最底层的节点(叶子节点)才保存信息(相关表的行位置)
    • 其它节点只是在搜索中用来指引到正确节点的。

    【译者注:参考 B+树 , 二叉树遍历    维基百科

    你可以看到,节点更多了(多了两倍)。确实,你有了额外的节点,它们就是帮助你找到正确节点的『决策节点』(正确节点保存着相关表中行的位置)。但是搜索复杂度还是在 O(log(N))(只多了一层)。一个重要的不同点是,最底层的节点是跟后续节点相连接的。

    用这个 B+树,假设你要找40到100间的值:

    • 你只需要找 40(若40不存在则找40之后最贴近的值),就像你在上一个树中所做的那样。
    • 然后用那些连接来收集40的后续节点,直到找到100。

    比方说你找到了 M 个后续节点,树总共有 N 个节点。对指定节点的搜索成本是 log(N),跟上一个树相同。但是当你找到这个节点,你得通过后续节点的连接得到 M 个后续节点,这需要 M 次运算。那么这次搜索只消耗了 M+log(N) 次运算,区别于上一个树所用的 N 次运算。此外,你不需要读取整个树(仅需要读 M+log(N) 个节点),这意味着更少的磁盘访问。如果 M 很小(比如 200 行)并且 N 很大(1,000,000),那结果就是天壤之别了。

    然而还有新的问题(又来了!)。如果你在数据库中增加或删除一行(从而在相关的 B+树索引里):

    • 你必须在B+树中的节点之间保持顺序,否则节点会变得一团糟,你无法从中找到想要的节点。
    • 你必须尽可能降低B+树的层数,否则 O(log(N)) 复杂度会变成 O(N)。

    换句话说,B+树需要自我整理和自我平衡。谢天谢地,我们有智能删除和插入。但是这样也带来了成本:在B+树中,插入和删除操作是 O(log(N)) 复杂度。所以有些人听到过使用太多索引不是个好主意这类说法。没错,你减慢了快速插入/更新/删除表中的一个行的操作,因为数据库需要以代价高昂的每索引 O(log(N)) 运算来更新表的索引。再者,增加索引意味着给事务管理器带来更多的工作负荷(在本文结尾我们会探讨这个管理器)。

    想了解更多细节,你可以看看 Wikipedia 上这篇关于B+树的文章。如果你想要数据库中实现B+树的例子,看看MySQL核心开发人员写的这篇文章 和 这篇文章。两篇文章都致力于探讨 innoDB(MySQL引擎)如何处理索引。

    哈希表

    我们最后一个重要的数据结构是哈希表。当你想快速查找值时,哈希表是非常有用的。而且,理解哈希表会帮助我们接下来理解一个数据库常见的联接操作,叫做『哈希联接』。这个数据结构也被数据库用来保存一些内部的东西(比如锁表或者缓冲池,我们在下文会研究这两个概念)。

    哈希表这种数据结构可以用关键字来快速找到一个元素。为了构建一个哈希表,你需要定义:

    • 元素的关键字
      • 关键字的哈希函数。关键字计算出来的哈希值给出了元素的位置(叫做哈希桶)。
      • 关键字比较函数。一旦你找到正确的哈希桶,你必须用比较函数在桶内找到你要的元素。
    一个简单的例子

    我们来看一个形象化的例子:

    这个哈希表有10个哈希桶。因为我懒,我只给出5个桶,但是我知道你很聪明,所以我让你想象其它的5个桶。我用的哈希函数是关键字对10取模,也就是我只保留元素关键字的最后一位,用来查找它的哈希桶:

    • 如果元素最后一位是 0,则进入哈希桶0,
    • 如果元素最后一位是 1,则进入哈希桶1,
    • 如果元素最后一位是 2,则进入哈希桶2,
    • …我用的比较函数只是判断两个整数是否相等。

    【译者注:取模运算

    比方说你要找元素 78:

    • 哈希表计算 78 的哈希码,等于 8。
    • 查找哈希桶 8,找到的第一个元素是 78。
    • 返回元素 78。
    • 查询仅耗费了 2 次运算(1次计算哈希值,另一次在哈希桶中查找元素)。

    现在,比方说你要找元素 59:

    • 哈希表计算 59 的哈希码,等于9。
    • 查找哈希桶 9,第一个找到的元素是 99。因为 99 不等于 59, 那么 99 不是正确的元素。
    • 用同样的逻辑,查找第二个元素(9),第三个(79),……,最后一个(29)。
    • 元素不存在。
    • 搜索耗费了 7 次运算
    一个好的哈希函数

    你可以看到,根据你查找的值,成本并不相同。

    如果我把哈希函数改为关键字对 1,000,000 取模(就是说取后6位数字),第二次搜索只消耗一次运算,因为哈希桶 00059 里面没有元素。真正的挑战是找到好的哈希函数,让哈希桶里包含非常少的元素

    在我的例子里,找到一个好的哈希函数很容易,但这是个简单的例子。当关键字是下列形式时,好的哈希函数就更难找了:

    • 1 个字符串(比如一个人的姓)
    • 2 个字符串(比如一个人的姓和名)
    • 2 个字符串和一个日期(比如一个人的姓、名和出生年月日)

    如果有了好的哈希函数,在哈希表里搜索的时间复杂度是 O(1)。

    阵列 vs 哈希表

    为什么不用阵列呢?

    嗯,你问得好。

    • 一个哈希表可以只装载一半到内存,剩下的哈希桶可以留在硬盘上。
    • 用阵列的话,你需要一个连续内存空间。如果你加载一个大表,很难分配足够的连续内存空间
    • 用哈希表的话,你可以选择你要的关键字(比如,一个人的国家和姓氏)。

    想要更详细的信息,你可以阅读我在Java HashMap 上的文章,是关于高效哈希表实现的。你不需要了解Java就能理解文章里的概念。

    全局概览

    我们已经了解了数据库内部的基本组件,现在我们需要回来看看数据库的全貌了。

    数据库是一个易于访问和修改的信息集合。不过简单的一堆文件也能达到这个效果。事实上,像SQLite这样最简单的数据库也只是一堆文件而已,但SQLite是精心设计的一堆文件,因为它允许你:

    • 使用事务来确保数据的安全和一致性
    • 快速处理百万条以上的数据

    数据库一般可以用如下图形来理解:

    撰写这部分之前,我读过很多书/论文,它们都以自己的方式描述数据库。所以,我不会特别关注如何组织数据库或者如何命名各种进程,因为我选择了自己的方式来描述这些概念以适应本文。区别就是不同的组件,总体思路为:数据库是由多种互相交互的组件构成的

    核心组件

    • 进程管理器(process manager:很多数据库具备一个需要妥善管理的进程/线程池。再者,为了实现纳秒级操作,一些现代数据库使用自己的线程而不是操作系统线程。
    • 网络管理器(network manager:网路I/O是个大问题,尤其是对于分布式数据库。所以一些数据库具备自己的网络管理器。
    • 文件系统管理器(File system manager磁盘I/O是数据库的首要瓶颈。具备一个文件系统管理器来完美地处理OS文件系统甚至取代OS文件系统,是非常重要的。
    • 内存管理器(memory manager:为了避免磁盘I/O带来的性能损失,需要大量的内存。但是如果你要处理大容量内存你需要高效的内存管理器,尤其是你有很多查询同时使用内存的时候。
    • 安全管理器(Security Manager:用于对用户的验证和授权。
    • 客户端管理器(Client manager:用于管理客户端连接。
    • ……

    工具

    • 备份管理器(Backup manager:用于保存和恢复数据。
    • 复原管理器(Recovery manager:用于崩溃后重启数据库到一个一致状态
    • 监控管理器(Monitor manager:用于记录数据库活动信息和提供监控数据库的工具。
    • Administration管理器(Administration manager:用于保存元数据(比如表的名称和结构),提供管理数据库、模式、表空间的工具。【译者注:好吧,我真的不知道Administration manager该翻译成什么,有知道的麻烦告知,不胜感激……】
    • ……

    查询管理器

    • 查询解析器(Query parser):用于检查查询是否合法
    • 查询重写器(Query rewriter):用于预优化查询
    • 查询优化器(Query optimizer):用于优化查询
    • 查询执行器(Query executor):用于编译和执行查询

    数据管理器

    • 事务管理器(Transaction manager:用于处理事务
    • 缓存管理器Cache manager:数据被使用之前置于内存,或者数据写入磁盘之前置于内存
    • 数据访问管理器Data access manager:访问磁盘中的数据

    在本文剩余部分,我会集中探讨数据库如何通过如下进程管理SQL查询的:

    • 客户端管理器
    • 查询管理器
    • 数据管理器(含复原管理器)

    客户端管理器

    客户端管理器是处理客户端通信的。客户端可以是一个(网站)服务器或者一个最终用户或最终应用。客户端管理器通过一系列知名的API(JDBC, ODBC, OLE-DB …)提供不同的方式来访问数据库。

    客户端管理器也提供专有的数据库访问API。

    当你连接到数据库时:

    • 管理器首先检查你的验证信息(用户名和密码),然后检查你是否有访问数据库的授权。这些权限由DBA分配。
    • 然后,管理器检查是否有空闲进程(或线程)来处理你对查询。
    • 管理器还会检查数据库是否负载很重。
    • 管理器可能会等待一会儿来获取需要的资源。如果等待时间达到超时时间,它会关闭连接并给出一个可读的错误信息。
    • 然后管理器会把你的查询送给查询管理器来处理。
    • 因为查询处理进程不是『不全则无』的,一旦它从查询管理器得到数据,它会把部分结果保存到一个缓冲区并且开始给你发送
    • 如果遇到问题,管理器关闭连接,向你发送可读的解释信息,然后释放资源。

    查询管理器

    这部分是数据库的威力所在,在这部分里,一个写得糟糕的查询可以转换成一个快速执行的代码,代码执行的结果被送到客户端管理器。这个多步骤操作过程如下:

    • 查询首先被解析并判断是否合法
    • 然后被重写,去除了无用的操作并且加入预优化部分
    • 接着被优化以便提升性能,并被转换为可执行代码和数据访问计划。
    • 然后计划被编译
    • 最后,被执行

    这里我不会过多探讨最后两步,因为它们不太重要。

    看完这部分后,如果你需要更深入的知识,我建议你阅读:

    • 关于成本优化的初步研究论文(1979):关系型数据库系统存取路径选择。这个篇文章只有12页,而且具备计算机一般水平就能理解。
    • 非常好、非常深入的 DB2 9.X 如何优化查询的介绍
    • 非常好的PostgreSQL如何优化查询的介绍。这是一篇最通俗易懂的文档,因为它讲的是『我们来看看在这种情况下,PostgreSQL给出了什么样的查询计划』,而不是『我们来看看PostgreSQL用的什么算法』。
    • 官方SQLite优化文档。『易于』阅读,因为SQLite用的是简单规则。再者,这是唯一真正解释SQLite如何工作的官方文档。
    • 非常好的SQL Server 2005 如何优化查询的介绍
    • Oracle 12c 优化白皮书
    • 2篇查询优化的教程,第一篇 第二篇。教程来自《数据库系统概念》的作者,很好的读物,集中讨论磁盘I/O,但是要求具有很好的计算机科学水平。
    • 另一个原理教程,这篇教程我觉得更易懂,不过它仅关注联接运算符(join operators)和磁盘I/O。

    查询解析器

    每一条SQL语句都要送到解析器来检查语法,如果你的查询有错,解析器将拒绝该查询。比如,如果你写成”SLECT …” 而不是 “SELECT …”,那就没有下文了。

    但这还不算完,解析器还会检查关键字是否使用正确的顺序,比如 WHERE 写在 SELECT 之前会被拒绝。

    然后,解析器要分析查询中的表和字段,使用数据库元数据来检查:

    • 表是否存在
    • 表的字段是否存在
    • 对某类型字段的 运算 是否 可能(比如,你不能将整数和字符串进行比较,你不能对一个整数使用 substring() 函数)

    接着,解析器检查在查询中你是否有权限来读取(或写入)表。再强调一次:这些权限由DBA分配。

    在解析过程中,SQL 查询被转换为内部表示(通常是一个树)。

    如果一切正常,内部表示被送到查询重写器。

    查询重写器

    在这一步,我们已经有了查询的内部表示,重写器的目标是:

    • 预优化查询
    • 避免不必要的运算
    • 帮助优化器找到合理的最佳解决方案

    重写器按照一系列已知的规则对查询执行检测。如果查询匹配一种模式的规则,查询就会按照这条规则来重写。下面是(可选)规则的非详尽的列表:

    • 视图合并:如果你在查询中使用视图,视图就会转换为它的 SQL 代码。
    • 子查询扁平化:子查询是很难优化的,因此重写器会尝试移除子查询

    例如:

    会转换为:

    • 去除不必要的运算符:比如,如果你用了 DISTINCT,而其实你有 UNIQUE 约束(这本身就防止了数据出现重复),那么 DISTINCT 关键字就被去掉了。
    • 排除冗余的联接:如果相同的 JOIN 条件出现两次,比如隐藏在视图中的 JOIN 条件,或者由于传递性产生的无用 JOIN,都会被消除。
    • 常数计算赋值:如果你的查询需要计算,那么在重写过程中计算会执行一次。比如 WHERE AGE > 10+2 会转换为 WHERE AGE > 12 , TODATE(“日期字符串”) 会转换为 datetime 格式的日期值。
    • (高级)分区裁剪(Partition Pruning):如果你用了分区表,重写器能够找到需要使用的分区。
    • (高级)物化视图重写(Materialized view rewrite):如果你有个物化视图匹配查询谓词的一个子集,重写器将检查视图是否最新并修改查询,令查询使用物化视图而不是原始表。
    • (高级)自定义规则:如果你有自定义规则来修改查询(就像 Oracle policy),重写器就会执行这些规则。
    • (高级)OLAP转换:分析/加窗 函数,星形联接,ROLLUP 函数……都会发生转换(但我不确定这是由重写器还是优化器来完成,因为两个进程联系很紧,必须看是什么数据库)。

    【译者注: 物化视图  。谓词,predicate,条件表达式的求值返回真或假的过程】

    重写后的查询接着送到优化器,这时候好玩的就开始了。

    统计

    研究数据库如何优化查询之前我们需要谈谈统计,因为没有统计的数据库是愚蠢的。除非你明确指示,数据库是不会分析自己的数据的。没有分析会导致数据库做出(非常)糟糕的假设。

    但是,数据库需要什么类型的信息呢?

    我必须(简要地)谈谈数据库和操作系统如何保存数据。两者使用的最小单位叫做页或块(默认 4 或 8 KB)。这就是说如果你仅需要 1KB,也会占用一个页。要是页的大小为 8KB,你就浪费了 7KB。

    回来继续讲统计! 当你要求数据库收集统计信息,数据库会计算下列值:

    • 表中行和页的数量
    • 表中每个列中的:
      唯一值
      数据长度(最小,最大,平均)
      数据范围(最小,最大,平均)
    • 表的索引信息

    这些统计信息会帮助优化器估计查询所需的磁盘 I/O、CPU、和内存使用

    对每个列的统计非常重要。
    比如,如果一个表 PERSON 需要联接 2 个列: LAST_NAME, FIRST_NAME。
    根据统计信息,数据库知道FIRST_NAME只有 1,000 个不同的值,LAST_NAME 有 1,000,000 个不同的值。
    因此,数据库就会按照 LAST_NAME, FIRST_NAME 联接。
    因为 LAST_NAME 不大可能重复,多数情况下比较 LAST_NAME 的头 2 、 3 个字符就够了,这将大大减少比较的次数。

    不过,这些只是基本的统计。你可以让数据库做一种高级统计,叫直方图。直方图是列值分布情况的统计信息。例如:

    • 出现最频繁的值
    • 分位数 【译者注:http://baike.baidu.com/view/1323572.htm】

    这些额外的统计会帮助数据库找到更佳的查询计划,尤其是对于等式谓词(例如: WHERE AGE = 18 )或范围谓词(例如: WHERE AGE > 10 and AGE < 40),因为数据库可以更好的了解这些谓词相关的数字类型数据行(注:这个概念的技术名称叫选择率)。

    统计信息保存在数据库元数据内,例如(非分区)表的统计信息位置:

    • Oracle: USER / ALL / DBA_TABLES 和 USER / ALL / DBA_TAB_COLUMNS
    • DB2: SYSCAT.TABLES 和 SYSCAT.COLUMNS

    统计信息必须及时更新。如果一个表有 1,000,000 行而数据库认为它只有 500 行,没有比这更糟糕的了。统计唯一的不利之处是需要时间来计算,这就是为什么数据库大多默认情况下不会自动计算统计信息。数据达到百万级时统计会变得困难,这时候,你可以选择仅做基本统计或者在一个数据库样本上执行统计。

    举个例子,我参与的一个项目需要处理每表上亿条数据的库,我选择只统计10%,结果造成了巨大的时间消耗。本例证明这是个糟糕的决定,因为有时候 Oracle 10G 从特定表的特定列中选出的 10% 跟全部 100% 有很大不同(对于拥有一亿行数据的表,这种情况极少发生)。这次错误的统计导致了一个本应 30 秒完成的查询最后执行了 8 个小时,查找这个现象根源的过程简直是个噩梦。这个例子显示了统计的重要性。

    注:当然了,每个数据库还有其特定的更高级的统计。如果你想了解更多信息,读读数据库的文档。话虽然这么说,我已经尽力理解统计是如何使用的了,而且我找到的最好的官方文档来自PostgreSQL

    查询优化器

    所有的现代数据库都在用基于成本的优化(即CBO)来优化查询。道理是针对每个运算设置一个成本,通过应用成本最低廉的一系列运算,来找到最佳的降低查询成本的方法。

    为了理解成本优化器的原理,我觉得最好用个例子来『感受』一下这个任务背后的复杂性。这里我将给出联接 2 个表的 3 个方法,我们很快就能看到即便一个简单的联接查询对于优化器来说都是个噩梦。之后,我们会了解真正的优化器是怎么做的。

    对于这些联接操作,我会专注于它们的时间复杂度,但是,数据库优化器计算的是它们的 CPU 成本、磁盘 I/O 成本、和内存需求。时间复杂度和 CPU 成本的区别是,时间成本是个近似值(给我这样的懒家伙准备的)。而 CPU 成本,我这里包括了所有的运算,比如:加法、条件判断、乘法、迭代……还有呢:

    • 每一个高级代码运算都要特定数量的低级 CPU 运算。
    • 对于 Intel Core i7、Intel Pentium 4、AMD Opteron…等,(就 CPU 周期而言)CPU 的运算成本是不同的,也就是说它取决于 CPU 的架构。

    使用时间复杂度就容易多了(至少对我来说),用它我也能了解到 CBO 的概念。由于磁盘 I/O 是个重要的概念,我偶尔也会提到它。请牢记,大多数时候瓶颈在于磁盘 I/O 而不是 CPU 使用

    索引

    在研究 B+树的时候我们谈到了索引,要记住一点,索引都是已经排了序的

    仅供参考:还有其他类型的索引,比如位图索引,在 CPU、磁盘I/O、和内存方面与B+树索引的成本并不相同。

    另外,很多现代数据库为了改善执行计划的成本,可以仅为当前查询动态地生成临时索引

    存取路径

    在应用联接运算符(join operators)之前,你首先需要获得数据。以下就是获得数据的方法。

    注:由于所有存取路径的真正问题是磁盘 I/O,我不会过多探讨时间复杂度。

    【译者注:四种类型的Oracle索引扫描介绍  】

    全扫描

    如果你读过执行计划,一定看到过『全扫描』(或只是『扫描』)一词。简单的说全扫描就是数据库完整的读一个表或索引。就磁盘 I/O 而言,很明显全表扫描的成本比索引全扫描要高昂

    范围扫描

    其他类型的扫描有索引范围扫描,比如当你使用谓词 ” WHERE AGE > 20 AND AGE < 40 ” 的时候它就会发生。

    当然,你需要在 AGE 字段上有索引才能用到索引范围扫描。

    在第一部分我们已经知道,范围查询的时间成本大约是 log(N)+M,这里 N 是索引的数据量,M 是范围内估测的行数。多亏有了统计我们才能知道 N 和 M 的值(注: M 是谓词 “ AGE > 20 AND AGE < 40 ” 的选择率)。另外范围扫描时,你不需要读取整个索引,因此在磁盘 I/O 方面没有全扫描那么昂贵

    唯一扫描

    如果你只需要从索引中取一个值你可以用唯一扫描

    根据 ROW ID 存取

    多数情况下,如果数据库使用索引,它就必须查找与索引相关的行,这样就会用到根据 ROW ID 存取的方式。

    例如,假如你运行:

    如果 person 表的 age 列有索引,优化器会使用索引找到所有年龄为 28 的人,然后它会去表中读取相关的行,这是因为索引中只有 age 的信息而你要的是姓和名。

    但是,假如你换个做法:

    PERSON 表的索引会用来联接 TYPE_PERSON 表,但是 PERSON 表不会根据行ID 存取,因为你并没有要求这个表内的信息。

    虽然这个方法在少量存取时表现很好,这个运算的真正问题其实是磁盘 I/O。假如需要大量的根据行ID存取,数据库也许会选择全扫描。

    其它路径

    我没有列举所有的存取路径,如果你感兴趣可以读一读 Oracle文档。其它数据库里也许叫法不同但背后的概念是一样的。

    联接运算符

    那么,我们知道如何获取数据了,那现在就把它们联接起来!

    我要展现的是3个个常用联接运算符:合并联接(Merge join),哈希联接(Hash Join)和嵌套循环联接(Nested Loop Join)。但是在此之前,我需要引入新词汇了:内关系和外关系( inner relation and outer relation) 【译者注: “内关系和外关系” 这个说法来源不明,跟查询的“内联接(INNER JOIN)  、外联接(OUTER JOIN)  ” 不是一个概念 。只查到百度百科词条:关系数据库 里提到“每个表格(有时被称为一个关系)……” 。 其他参考链接 “Merge Join”   “Hash Join”   “Nested Loop Join” 】  。 一个关系可以是:

    • 一个表
    • 一个索引
    • 上一个运算的中间结果(比如上一个联接运算的结果)

    当你联接两个关系时,联接算法对两个关系的处理是不同的。在本文剩余部分,我将假定:

    • 外关系是左侧数据集
    • 内关系是右侧数据集

    比如, A JOIN B 是 A 和 B 的联接,这里 A 是外关系,B 是内关系。

    多数情况下, A JOIN B 的成本跟 B JOIN A 的成本是不同的

    在这一部分,我还将假定外关系有 N 个元素,内关系有 M 个元素。要记住,真实的优化器通过统计知道 N 和 M 的值。

    注:N 和 M 是关系的基数。【译者注: 基数 】

    嵌套循环联接

    嵌套循环联接是最简单的。

    道理如下:

    • 针对外关系的每一行
    • 查看内关系里的所有行来寻找匹配的行

    下面是伪代码:

    由于这是个双迭代,时间复杂度是 O(N*M)。

    在磁盘 I/O 方面, 针对 N 行外关系的每一行,内部循环需要从内关系读取 M 行。这个算法需要从磁盘读取 N+ N*M 行。但是,如果内关系足够小,你可以把它读入内存,那么就只剩下 M + N 次读取。这样修改之后,内关系必须是最小的,因为它有更大机会装入内存。

    在CPU成本方面没有什么区别,但是在磁盘 I/O 方面,最好最好的,是每个关系只读取一次。

    当然,内关系可以由索引代替,对磁盘 I/O 更有利。

    由于这个算法非常简单,下面这个版本在内关系太大无法装入内存时,对磁盘 I/O 更加有利。道理如下:

    • 为了避免逐行读取两个关系,
    • 你可以成簇读取,把(两个关系里读到的)两簇数据行保存在内存里,
    • 比较两簇数据,保留匹配的,
    • 然后从磁盘加载新的数据簇来继续比较
    • 直到加载了所有数据。

    可能的算法如下:

    使用这个版本,时间复杂度没有变化,但是磁盘访问降低了:

    • 用前一个版本,算法需要 N + N*M 次访问(每次访问读取一行)。
    • 用新版本,磁盘访问变为 外关系的数据簇数量 + 外关系的数据簇数量 * 内关系的数据簇数量
    • 增加数据簇的尺寸,可以降低磁盘访问。
    哈希联接

    哈希联接更复杂,不过在很多场合比嵌套循环联接成本低。

    哈希联接的道理是:

    • 1) 读取内关系的所有元素
    • 2) 在内存里建一个哈希表
    • 3) 逐条读取外关系的所有元素
    • 4) (用哈希表的哈希函数)计算每个元素的哈希值,来查找内关系里相关的哈希桶内
    • 5) 是否与外关系的元素匹配。

    在时间复杂度方面我需要做些假设来简化问题:

    • 内关系被划分成 X 个哈希桶
    • 哈希函数几乎均匀地分布每个关系内数据的哈希值,就是说哈希桶大小一致。
    • 外关系的元素与哈希桶内的所有元素的匹配,成本是哈希桶内元素的数量。

    时间复杂度是 (M/X) * (N/X) + 创建哈希表的成本(M) + 哈希函数的成本 * N 。
    如果哈希函数创建了足够小规模的哈希桶,那么复杂度就是 O(M+N)

    还有个哈希联接的版本,对内存有利但是对磁盘 I/O 不够有利。 这回是这样的:

    • 1) 计算内关系和外关系双方的哈希表
    • 2) 保存哈希表到磁盘
    • 3) 然后逐个哈希桶比较(其中一个读入内存,另一个逐行读取)。
    合并联接

    合并联接是唯一产生排序的联接算法。

    注:这个简化的合并联接不区分内表或外表;两个表扮演同样的角色。但是真实的实现方式是不同的,比如当处理重复值时。

    1.(可选)排序联接运算:两个输入源都按照联接关键字排序。

    2.合并联接运算:排序后的输入源合并到一起。

    排序

    我们已经谈到过合并排序,在这里合并排序是个很好的算法(但是并非最好的,如果内存足够用的话,还是哈希联接更好)。

    然而有时数据集已经排序了,比如:

    • 如果表内部就是有序的,比如联接条件里一个索引组织表 【译者注: index-organized table 】
    • 如果关系是联接条件里的一个索引
    • 如果联接应用在一个查询中已经排序的中间结果
    合并联接

    这部分与我们研究过的合并排序中的合并运算非常相似。不过这一次呢,我们不是从两个关系里挑选所有元素,而是只挑选相同的元素。道理如下:

    • 1) 在两个关系中,比较当前元素(当前=头一次出现的第一个)
    • 2) 如果相同,就把两个元素都放入结果,再比较两个关系里的下一个元素
    • 3) 如果不同,就去带有最小元素的关系里找下一个元素(因为下一个元素可能会匹配)
    • 4) 重复 1、2、3步骤直到其中一个关系的最后一个元素。

    因为两个关系都是已排序的,你不需要『回头去找』,所以这个方法是有效的。

    该算法是个简化版,因为它没有处理两个序列中相同数据出现多次的情况(即多重匹配)。真实版本『仅仅』针对本例就更加复杂,所以我才选择简化版。

    如果两个关系都已经排序,时间复杂度是 O(N+M)

    如果两个关系需要排序,时间复杂度是对两个关系排序的成本:O(N*Log(N) + M*Log(M))

    对于计算机极客,我给出下面这个可能的算法来处理多重匹配(注:对于这个算法我不保证100%正确):

    哪个算法最好?

    如果有最好的,就没必要弄那么多种类型了。这个问题很难,因为很多因素都要考虑,比如:

    • 空闲内存:没有足够的内存的话就跟强大的哈希联接拜拜吧(至少是完全内存中哈希联接)。
    • 两个数据集的大小。比如,如果一个大表联接一个很小的表,那么嵌套循环联接就比哈希联接快,因为后者有创建哈希的高昂成本;如果两个表都非常大,那么嵌套循环联接CPU成本就很高昂。
    • 是否有索引:有两个 B+树索引的话,聪明的选择似乎是合并联接。
    • 结果是否需要排序:即使你用到的是未排序的数据集,你也可能想用成本较高的合并联接(带排序的),因为最终得到排序的结果后,你可以把它和另一个合并联接串起来(或者也许因为查询用 ORDER BY/GROUP BY/DISTINCT 等操作符隐式或显式地要求一个排序结果)。
    • 关系是否已经排序:这时候合并联接是最好的候选项。
    • 联接的类型:是等值联接(比如 tableA.col1 = tableB.col2 )? 还是内联接外联接笛卡尔乘积?或者自联接?有些联接在特定环境下是无法工作的。
    • 数据的分布:如果联接条件的数据是倾斜的(比如根据姓氏来联接人,但是很多人同姓),用哈希联接将是个灾难,原因是哈希函数将产生分布极不均匀的哈希桶。
    • 如果你希望联接操作使用多线程或多进程

    想要更详细的信息,可以阅读DB2ORACLE 或 SQL Server)的文档。

    简化的例子

    我们已经研究了 3 种类型的联接操作。

    现在,比如说我们要联接 5 个表,来获得一个人的全部信息。一个人可以有:

    • 多个手机号(MOBILES)
    • 多个邮箱(MAILS)
    • 多个地址(ADRESSES)
    • 多个银行账号(BANK_ACCOUNTS)

    换句话说,我们需要用下面的查询快速得到答案:

    作为一个查询优化器,我必须找到处理数据最好的方法。但有 2 个问题:

    • 每个联接使用那种类型?
      我有 3 种可选(哈希、合并、嵌套),同时可能用到 0, 1 或 2 个索引(不必说还有多种类型的索引)。
    • 按什么顺序执行联接?
      比如,下图显示了针对 4 个表仅仅 3 次联接,可能采用的执行计划:

    那么下面就是我可能采取的方法:

    • 1) 采取粗暴的方式
      用数据库统计,计算每种可能的执行计划的成本,保留最佳方案。但是,会有很多可能性。对于一个给定顺序的联接操作,每个联接有三种可能性:哈希、合并、嵌套,那么总共就有 3^4 种可能性。确定联接的顺序是个二叉树的排列问题,会有 (2*4)!/(4+1)! 种可能的顺序。对本例这个相当简化了的问题,我最后会得到 3^4*(2*4)!/(4+1)! 种可能。
      抛开专业术语,那相当于 27,216 种可能性。如果给合并联接加上使用 0,1 或 2 个 B+树索引,可能性就变成了 210,000种。我是不是告诉过你这个查询其实非常简单吗?
    • 2) 我大叫一声辞了这份工作
      很有诱惑力,但是这样一来,你不会的到查询结果,而我需要钱来付账单。
    • 3) 我只尝试几种执行计划,挑一个成本最低的。
      由于不是超人,我不能算出所有计划的成本。相反,我可以武断地从全部可能的计划中选择一个子集,计算它们的成本,把最佳的计划给你。
    • 4) 我用聪明的规则来降低可能性的数量
      有两种规则:
      我可以用『逻辑』规则,它能去除无用的可能性,但是无法过滤大量的可能性。比如: 『嵌套联接的内关系必须是最小的数据集』。
      我接受现实,不去找最佳方案,用更激进的规则来大大降低可能性的数量。比如:『如果一个关系很小,使用嵌套循环联接,绝不使用合并或哈希联接。』

    在这个简单的例子中,我最后得到很多可能性。但现实世界的查询还会有其他关系运算符,像 OUTER JOIN, CROSS JOIN, GROUP BY, ORDER BY, PROJECTION, UNION, INTERSECT, DISTINCT … 这意味着更多的可能性。

    那么,数据库是如何处理的呢?

    动态编程,贪婪算法和启发式算法

    关系型数据库会尝试我刚刚提到的多种方法,优化器真正的工作是在有限时间里找到一个好的解决方案。

    多数时候,优化器找到的不是最佳的方案,而是一个『不错』的

    对于小规模的查询,采取粗暴的方式是有可能的。但是为了让中等规模的查询也能采取粗暴的方式,我们有办法避免不必要的计算,这就是动态编程

    动态编程

    这几个字背后的理念是,很多执行计划是非常相似的。看看下图这几种计划:

    它们都有相同的子树(A JOIN B),所以,不必在每个计划中计算这个子树的成本,计算一次,保存结果,当再遇到这个子树时重用。用更正规的说法,我们面对的是个重叠问题。为了避免对部分结果的重复计算,我们使用记忆法。

    对于计算机极客,下面是我在先前给你的教程里找到的一个算法。我不提供解释,所以仅在你已经了解动态编程或者精通算法的情况下阅读(我提醒过你哦):

    针对大规模查询,你也可以用动态编程方法,但是要附加额外的规则(或者称为启发式算法)来减少可能性。

    • 如果我们仅分析一个特定类型的计划(例如左深树 left-deep tree,参考),我们得到 n*2^n 而不是 3^n。

    • 如果我们加上逻辑规则来避免一些模式的计划(像『如果一个表有针对指定谓词的索引,就不要对表尝试合并联接,要对索引』),就会在不给最佳方案造成过多伤害的前提下,减少可能性的数量。【译者注:原文应该是有两处笔误: as=has, to=too】
    • 如果我们在流程里增加规则(像『联接运算先于其他所有的关系运算』),也能减少大量的可能性。
    • ……
    贪婪算法

    但是,优化器面对一个非常大的查询,或者为了尽快找到答案(然而查询速度就快不起来了),会应用另一种算法,叫贪婪算法。

    原理是按照一个规则(或启发)以渐进的方式制定查询计划。在这个规则下,贪婪算法逐步寻找最佳算法,先处理一条JOIN,接着每一步按照同样规则加一条新的JOIN。

    我们来看个简单的例子。比如一个针对5张表(A,B,C,D,E)4次JOIN 的查询,为了简化我们把嵌套JOIN作为可能的联接方式,按照『使用最低成本的联接』规则。

    • 直接从 5 个表里选一个开始(比如 A)
    • 计算每一个与 A 的联接(A 作为内关系或外关系)
    • 发现 “A JOIN B” 成本最低
    • 计算每一个与 “A JOIN B” 的结果联接的成本(“A JOIN B” 作为内关系或外关系)
    • 发现 “(A JOIN B) JOIN C” 成本最低
    • 计算每一个与 “(A JOIN B) JOIN C” 的结果联接的成本 ……
    • 最后确定执行计划 “( ( (A JOIN B) JOIN C) JOIN D ) JOIN E )”

    因为我们是武断地从表 A 开始,我们可以把同样的算法用在 B,然后 C,然后 D, 然后 E。最后保留成本最低的执行计划。

    顺便说一句,这个算法有个名字,叫『最近邻居算法』。

    抛开细节不谈,只需一个良好的模型和一个 N*log(N) 复杂度的排序,问题就轻松解决了。这个算法的复杂度是 O(N*log(N)) ,对比一下完全动态编程的 O(3^N)。如果你有个20个联接的大型查询,这意味着 26 vs 3,486,784,401 ,天壤之别!

    这个算法的问题是,我们做的假设是:找到 2 个表的最佳联接方法,保留这个联接结果,再联接下一个表,就能得到最低的成本。但是:

    • 即使在 A, B, C 之间,A JOIN B 可得最低成本
    • (A JOIN C) JOIN B 也许比 (A JOIN B) JOIN C 更好。

    为了改善这一状况,你可以多次使用基于不同规则的贪婪算法,并保留最佳的执行计划。

    其他算法

    [ 如果你已经受够了算法话题,就直接跳到下一部分。这部分对文章余下的内容不重要。]【译者注:我也很想把这段跳过去 -_- 】

    很多计算机科学研究者热衷于寻找最佳的执行计划,他们经常为特定问题或模式探寻更好的解决方案,比如:

    • 如果查询是星型联接(一种多联接查询),某些数据库使用一种特定的算法。
    • 如果查询是并行的,某些数据库使用一种特定的算法。 ……

    其他算法也在研究之中,就是为了替换在大型查询中的动态编程算法。贪婪算法属于一个叫做启发式算法的大家族,它根据一条规则(或启发),保存上一步找到的方法,『附加』到当前步骤来进一步搜寻解决方法。有些算法根据特定规则,一步步的应用规则但不总是保留上一步找到的最佳方法。它们统称启发式算法。

    比如,基因算法就是一种:

    • 一个方法代表一种可能的完整查询计划
    • 每一步保留了 P 个方法(即计划),而不是一个。
    • 0) P 个计划随机创建
    • 1) 成本最低的计划才会保留
    • 2) 这些最佳计划混合在一起产生 P 个新的计划
    • 3) 一些新的计划被随机改写
    • 4) 1,2,3步重复 T 次
    • 5) 然后在最后一次循环,从 P 个计划里得到最佳计划。

    循环次数越多,计划就越好。

    这是魔术?不,这是自然法则:适者生存!

    PostgreSQL 实现了基因算法,但我并没有发现它是不是默认使用这种算法的。

    数据库中还使用了其它启发式算法,像『模拟退火算法(Simulated Annealing)』、『交互式改良算法(Iterative Improvement)』、『双阶段优化算法(Two-Phase Optimization)』…..不过,我不知道这些算法当前是否在企业级数据库应用了,还是仅仅用在研究型数据库。

    如果想进一步了解,这篇研究文章介绍两个更多可能的算法《数据库查询优化中联接排序问题的算法综述》,你可以去阅读一下。

    真实的优化器

    [ 这段不重要,可以跳过 ]

    然而,所有上述罗里罗嗦的都非常理论化,我是个开发者而不是研究者,我喜欢具体的例子

    我们来看看 SQLite 优化器 是怎么工作的。这是个轻量化数据库,它使用一种简单优化器,基于带有附加规则的贪婪算法,来限制可能性的数量。

    • SQLite 在有 CROSS JOIN 操作符时从不给表重新排序
    • 使用嵌套联接
    • 外联接始终按顺序评估
    • ……
    • 3.8.0之前的版本使用『最近邻居』贪婪算法来搜寻最佳查询计划
      等等……我们见过这个算法!真是巧哈!
    • 从3.8.0版本(发布于2015年)开始,SQLite使用『N最近邻居』贪婪算法来搜寻最佳查询计划

    我们再看看另一个优化器是怎么工作的。IBM DB2 跟所有企业级数据库都类似,我讨论它是因为在切换到大数据之前,它是我最后真正使用的数据库。

    看过官方文档后,我们了解到 DB2 优化器可以让你使用 7 种级别的优化:

    • 对联接使用贪婪算法
    •     0 – 最小优化,使用索引扫描和嵌套循环联接,避免一些查询重写
      •     1 – 低级优化
      •     2 – 完全优化
    • 对联接使用动态编程算法
    •     3 – 中等优化和粗略的近似法
      •     5 – 完全优化,使用带有启发式的所有技术
      •     7 – 完全优化,类似级别5,但不用启发式
      •     9 – 最大优化,完全不顾开销,考虑所有可能的联接顺序,包括笛卡尔乘积

    可以看到 DB2 使用贪婪算法和动态编程算法。当然,他们不会把自己的启发算法分享出来的,因为查询优化器是数据库的看家本领。

    DB2 的默认级别是 5,优化器使用下列特性: 【译者注:以下出现的一些概念我没有做考证,因为[ 这段不重要,可以跳过 ]】

    • 使用所有可用的统计,包括线段树(frequent-value)和分位数统计(quantile statistics)。
    • 使用所有查询重写规则(含物化查询表路由,materialized query table routing),除了在极少情况下适用的计算密集型规则。
    • 使用动态编程模拟联接
    •     有限使用组合内关系(composite inner relation)
    •     对于涉及查找表的星型模式,有限使用笛卡尔乘积
    • 考虑宽泛的访问方式,含列表预取(list prefetch,注:我们将讨论什么是列表预取),index ANDing(注:一种对索引的特殊操作),和物化查询表路由。

    默认的,DB2 对联接排列使用受启发式限制的动态编程算法

    其它情况 (GROUP BY, DISTINCT…) 由简单规则处理。

    查询计划缓存

    由于创建查询计划是耗时的,大多数据库把计划保存在查询计划缓存,来避免重复计算。这个话题比较大,因为数据库需要知道什么时候更新过时的计划。办法是设置一个上限,如果一个表的统计变化超过了上限,关于该表的查询计划就从缓存中清除。

    查询执行器

    在这个阶段,我们有了一个优化的执行计划,再编译为可执行代码。然后,如果有足够资源(内存,CPU),查询执行器就会执行它。计划中的操作符 (JOIN, SORT BY …) 可以顺序或并行执行,这取决于执行器。为了获得和写入数据,查询执行器与数据管理器交互,本文下一部分来讨论数据管理器。

    数据管理器

    在这一步,查询管理器执行了查询,需要从表和索引获取数据,于是向数据管理器提出请求。但是有 2 个问题:

    • 关系型数据库使用事务模型,所以,当其他人在同一时刻使用或修改数据时,你无法得到这部分数据。
    • 数据提取是数据库中速度最慢的操作,所以数据管理器需要足够聪明地获得数据并保存在内存缓冲区内。

    在这一部分,我没看看关系型数据库是如何处理这两个问题的。我不会讲数据管理器是怎么获得数据的,因为这不是最重要的(而且本文已经够长的了!)。

    缓存管理器

    我已经说过,数据库的主要瓶颈是磁盘 I/O。为了提高性能,现代数据库使用缓存管理器。

    查询执行器不会直接从文件系统拿数据,而是向缓存管理器要。缓存管理器有一个内存缓存区,叫做缓冲池从内存读取数据显著地提升数据库性能。对此很难给出一个数量级,因为这取决于你需要的是哪种操作:

    • 顺序访问(比如:全扫描) vs 随机访问(比如:按照row id访问)
    • 读还是写

    以及数据库使用的磁盘类型:

    • 7.2k/10k/15k rpm的硬盘
    • SSD
    • RAID 1/5/…

    要我说,内存比磁盘要快100到10万倍

    然而,这导致了另一个问题(数据库总是这样…),缓存管理器需要在查询执行器使用数据之前得到数据,否则查询管理器不得不等待数据从缓慢的磁盘中读出来。

    预读

    这个问题叫预读。查询执行器知道它将需要什么数据,因为它了解整个查询流,而且通过统计也了解磁盘上的数据。道理是这样的:

    • 当查询执行器处理它的第一批数据时
    • 会告诉缓存管理器预先装载第二批数据
    • 当开始处理第二批数据时
    • 告诉缓存管理器预先装载第三批数据,并且告诉缓存管理器第一批可以从缓存里清掉了。
    • ……

    缓存管理器在缓冲池里保存所有的这些数据。为了确定一条数据是否有用,缓存管理器给缓存的数据添加了额外的信息(叫闩锁)。

    有时查询执行器不知道它需要什么数据,有的数据库也不提供这个功能。相反,它们使用一种推测预读法(比如:如果查询执行器想要数据1、3、5,它不久后很可能会要 7、9、11),或者顺序预读法(这时候缓存管理器只是读取一批数据后简单地从磁盘加载下一批连续数据)。

    为了监控预读的工作状况,现代数据库引入了一个度量叫缓冲/缓存命中率,用来显示请求的数据在缓存中找到而不是从磁盘读取的频率。

    注:糟糕的缓存命中率不总是意味着缓存工作状态不佳。更多信息请阅读Oracle文档

    缓冲只是容量有限的内存空间,因此,为了加载新的数据,它需要移除一些数据。加载和清除缓存需要一些磁盘和网络I/O的成本。如果你有个经常执行的查询,那么每次都把查询结果加载然后清除,效率就太低了。现代数据库用缓冲区置换策略来解决这个问题。

    缓冲区置换策略

    多数现代数据库(至少 SQL Server, MySQL, Oracle 和 DB2)使用 LRU 算法。

    LRU

    LRU代表最近最少使用(Least Recently Used)算法,背后的原理是:在缓存里保留的数据是最近使用的,所以更有可能再次使用。

    图解:

    为了更好的理解,我假设缓冲区里的数据没有被闩锁锁住(就是说是可以被移除的)。在这个简单的例子里,缓冲区可以保存 3 个元素:

    • 1:缓存管理器(简称CM)使用数据1,把它放入空的缓冲区
    • 2:CM使用数据4,把它放入半载的缓冲区
    • 3:CM使用数据3,把它放入半载的缓冲区
    • 4:CM使用数据9,缓冲区满了,所以数据1被清除,因为它是最后一个最近使用的,数据9加入到缓冲区
    • 5:CM使用数据4,数据4已经在缓冲区了,所以它再次成为第一个最近使用的
    • 6:CM使用数据1,缓冲区满了,所以数据9被清除,因为它是最后一个最近使用的,数据1加入到缓冲区
    • ……

    这个算法效果很好,但是有些限制。如果对一个大表执行全表扫描怎么办?换句话说,当表/索引的大小超出缓冲区会发生什么?使用这个算法会清除之前缓存内所有的数据,而且全扫描的数据很可能只使用一次。

    改进

    为了防止这个现象,有些数据库增加了特殊的规则,比如Oracle文档中的描述:

    『对非常大的表来说,数据库通常使用直接路径来读取,即直接加载区块[……],来避免填满缓冲区。对于中等大小的表,数据库可以使用直接读取或缓存读取。如果选择缓存读取,数据库把区块置于LRU的尾部,防止清空当前缓冲区。』

    还有一些可能,比如使用高级版本的LRU,叫做 LRU-K。例如,SQL Server 使用 LRU-2。

    这个算法的原理是把更多的历史记录考虑进来。简单LRU(也就是 LRU-1),只考虑最后一次使用的数据。LRU-K呢:

    • 考虑数据最后第K次使用的情况
    • 数据使用的次数加进了权重
    • 一批新数据加载进入缓存,旧的但是经常使用的数据不会被清除(因为权重更高)
    • 但是这个算法不会保留缓存中不再使用的数据
    • 所以数据如果不再使用,权重值随着时间推移而降低

    计算权重是需要成本的,所以SQL Server只是使用 K=2,这个值性能不错而且额外开销可以接受。

    关于LRU-K更深入的知识,可以阅读早期的研究论文(1993):数据库磁盘缓冲的LRU-K页面置换算法

    其他算法

    当然还有其他管理缓存的算法,比如:

    • 2Q(类LRU-K算法)
    • CLOCK(类LRU-K算法)
    • MRU(最新使用的算法,用LRU同样的逻辑但不同的规则)
    • LRFU(Least Recently and Frequently Used,最近最少使用最近最不常用
    • ……

    写缓冲区

    我只探讨了读缓存 —— 在使用之前预先加载数据。用来保存数据、成批刷入磁盘,而不是逐条写入数据从而造成很多单次磁盘访问。

    要记住,缓冲区保存的是(最小的数据单位)而不是行(逻辑上/人类习惯的观察数据的方式)。缓冲池内的页如果被修改了但还没有写入磁盘,就是脏页。有很多算法来决定写入脏页的最佳时机,但这个问题与事务的概念高度关联,下面我们就谈谈事务。

    事务管理器

    最后但同样重要的,是事务管理器,我们将看到这个进程是如何保证每个查询在自己的事务内执行的。但开始之前,我们需要理解ACID事务的概念。

    “I’m on acid”

    一个ACID事务是一个工作单元,它要保证4个属性:

    • 原子性Atomicity): 事务『要么全部完成,要么全部取消』,即使它持续运行10个小时。如果事务崩溃,状态回到事务之前(事务回滚)。
    • 隔离性Isolation): 如果2个事务 A 和 B 同时运行,事务 A 和 B 最终的结果是相同的,不管 A 是结束于 B 之前/之后/运行期间。
    • 持久性Durability): 一旦事务提交(也就是成功执行),不管发生什么(崩溃或者出错),数据要保存在数据库中。
    • 一致性Consistency): 只有合法的数据(依照关系约束和函数约束)能写入数据库,一致性与原子性和隔离性有关。

    在同一个事务内,你可以运行多个SQL查询来读取、创建、更新和删除数据。当两个事务使用相同的数据,麻烦就来了。经典的例子是从账户A到账户B的汇款。假设有2个事务:

    • 事务1(T1)从账户A取出100美元给账户B
    • 事务2(T2)从账户A取出50美元给账户B

    我们回来看看ACID属性:

    • 原子性确保不管 T1 期间发生什么(服务器崩溃、网络中断…),你不能出现账户A 取走了100美元但没有给账户B 的现象(这就是数据不一致状态)。
    • 隔离性确保如果 T1 和 T2 同时发生,最终A将减少150美元,B将得到150美元,而不是其他结果,比如因为 T2 部分抹除了 T1 的行为,A减少150美元而B只得到50美元(这也是不一致状态)。
    • 持久性确保如果 T1 刚刚提交,数据库就发生崩溃,T1 不会消失得无影无踪。
    • 一致性确保钱不会在系统内生成或灭失。

    [以下部分不重要,可以跳过]

    现代数据库不会使用纯粹的隔离作为默认模式,因为它会带来巨大的性能消耗。SQL一般定义4个隔离级别:

    • 串行化(Serializable,SQLite默认模式):最高级别的隔离。两个同时发生的事务100%隔离,每个事务有自己的『世界』。
    • 可重复读(Repeatable read,MySQL默认模式):每个事务有自己的『世界』,除了一种情况。如果一个事务成功执行并且添加了新数据,这些数据对其他正在执行的事务是可见的。但是如果事务成功修改了一条数据,修改结果对正在运行的事务不可见。所以,事务之间只是在新数据方面突破了隔离,对已存在的数据仍旧隔离。
      举个例子,如果事务A运行”SELECT count(1) from TABLE_X” ,然后事务B在 TABLE_X 加入一条新数据并提交,当事务A再运行一次 count(1)结果不会是一样的。
      这叫幻读(phantom read)。
    • 读取已提交(Read committed,Oracle、PostgreSQL、SQL Server默认模式):可重复读+新的隔离突破。如果事务A读取了数据D,然后数据D被事务B修改(或删除)并提交,事务A再次读取数据D时数据的变化(或删除)是可见的。
      这叫不可重复读(non-repeatable read)。
    • 读取未提交(Read uncommitted):最低级别的隔离,是读取已提交+新的隔离突破。如果事务A读取了数据D,然后数据D被事务B修改(但并未提交,事务B仍在运行中),事务A再次读取数据D时,数据修改是可见的。如果事务B回滚,那么事务A第二次读取的数据D是无意义的,因为那是事务B所做的从未发生的修改(已经回滚了嘛)。
      这叫脏读(dirty read)。

    多数数据库添加了自定义的隔离级别(比如 PostgreSQL、Oracle、SQL Server的快照隔离),而且并没有实现SQL规范里的所有级别(尤其是读取未提交级别)。

    默认的隔离级别可以由用户/开发者在建立连接时覆盖(只需要增加很简单的一行代码)。

    并发控制

    确保隔离性、一致性和原子性的真正问题是对相同数据的写操作(增、更、删):

    • 如果所有事务只是读取数据,它们可以同时工作,不会更改另一个事务的行为。
    • 如果(至少)有一个事务在修改其他事务读取的数据,数据库需要找个办法对其它事务隐藏这种修改。而且,它还需要确保这个修改操作不会被另一个看不到这些数据修改的事务擦除。

    这个问题叫并发控制

    最简单的解决办法是依次执行每个事务(即顺序执行),但这样就完全没有伸缩性了,在一个多处理器/多核服务器上只有一个核心在工作,效率很低。

    理想的办法是,每次一个事务创建或取消时:

    • 监控所有事务的所有操作
    • 检查是否2个(或更多)事务的部分操作因为读取/修改相同的数据而存在冲突
    • 重新编排冲突事务中的操作来减少冲突的部分
    • 按照一定的顺序执行冲突的部分(同时非冲突事务仍然在并发运行)
    • 考虑事务有可能被取消

    用更正规的说法,这是对冲突的调度问题。更具体点儿说,这是个非常困难而且CPU开销很大的优化问题。企业级数据库无法承担等待几个小时,来寻找每个新事务活动最好的调度,因此就使用不那么理想的方式以避免更多的时间浪费在解决冲突上。

    锁管理器

    为了解决这个问题,多数数据库使用和/或数据版本控制。这是个很大的话题,我会集中探讨锁,和一点点数据版本控制。

    悲观锁

    原理是:

    • 如果一个事务需要一条数据
    • 它就把数据锁住
    • 如果另一个事务也需要这条数据
    • 它就必须要等第一个事务释放这条数据
      这个锁叫排他锁

    但是对一个仅仅读取数据的事务使用排他锁非常昂贵,因为这会迫使其它只需要读取相同数据的事务等待。因此就有了另一种锁,共享锁

    共享锁是这样的:

    • 如果一个事务只需要读取数据A
    • 它会给数据A加上『共享锁』并读取
    • 如果第二个事务也需要仅仅读取数据A
    • 它会给数据A加上『共享锁』并读取
    • 如果第三个事务需要修改数据A
    • 它会给数据A加上『排他锁』,但是必须等待另外两个事务释放它们的共享锁。

    同样的,如果一块数据被加上排他锁,一个只需要读取该数据的事务必须等待排他锁释放才能给该数据加上共享锁。

    锁管理器是添加和释放锁的进程,在内部用一个哈希表保存锁信息(关键字是被锁的数据),并且了解每一块数据是:

    • 被哪个事务加的锁
    • 哪个事务在等待数据解锁
    死锁

    但是使用锁会导致一种情况,2个事务永远在等待一块数据:

    在本图中:

    • 事务A 给 数据1 加上排他锁并且等待获取数据2
    • 事务B 给 数据2 加上排他锁并且等待获取数据1

    这叫死锁

    在死锁发生时,锁管理器要选择取消(回滚)一个事务,以便消除死锁。这可是个艰难的决定:

    • 杀死数据修改量最少的事务(这样能减少回滚的成本)?
    • 杀死持续时间最短的事务,因为其它事务的用户等的时间更长?
    • 杀死能用更少时间结束的事务(避免可能的资源饥荒)?
    • 一旦发生回滚,有多少事务会受到回滚的影响?

    在作出选择之前,锁管理器需要检查是否有死锁存在。

    哈希表可以看作是个图表(见上文图),图中出现循环就说明有死锁。由于检查循环是昂贵的(所有锁组成的图表是很庞大的),经常会通过简单的途径解决:使用超时设定。如果一个锁在超时时间内没有加上,那事务就进入死锁状态。

    锁管理器也可以在加锁之前检查该锁会不会变成死锁,但是想要完美的做到这一点还是很昂贵的。因此这些预检经常设置一些基本规则。

    两段锁

    实现纯粹的隔离最简单的方法是:事务开始时获取锁,结束时释放锁。就是说,事务开始前必须等待确保自己能加上所有的锁,当事务结束时释放自己持有的锁。这是行得通的,但是为了等待所有的锁,大量的时间被浪费了

    更快的方法是两段锁协议(Two-Phase Locking Protocol由 DB2 和 SQL Server使用),在这里,事务分为两个阶段:

    • 成长阶段:事务可以获得锁,但不能释放锁。
    • 收缩阶段:事务可以释放锁(对于已经处理完而且不会再次处理的数据),但不能获得新锁。

    这两条简单规则背后的原理是:

    • 释放不再使用的锁,来降低其它事务的等待时间
    • 防止发生这类情况:事务最初获得的数据,在事务开始后被修改,当事务重新读取该数据时发生不一致。

    这个规则可以很好地工作,但有个例外:如果修改了一条数据、释放了关联的锁后,事务被取消(回滚),而另一个事务读到了修改后的值,但最后这个值却被回滚。为了避免这个问题,所有独占锁必须在事务结束时释放

    多说几句

    当然了,真实的数据库使用更复杂的系统,涉及到更多类型的锁(比如意向锁,intention locks)和更多的粒度(行级锁、页级锁、分区锁、表锁、表空间锁),但是道理是相同的。

    我只探讨纯粹基于锁的方法,数据版本控制是解决这个问题的另一个方法

    版本控制是这样的:

    • 每个事务可以在相同时刻修改相同的数据
    • 每个事务有自己的数据拷贝(或者叫版本)
    • 如果2个事务修改相同的数据,只接受一个修改,另一个将被拒绝,相关的事务回滚(或重新运行)

    这将提高性能,因为:

    • 读事务不会阻塞写事务
    • 写事务不会阻塞读
    • 没有『臃肿缓慢』的锁管理器带来的额外开销

    除了两个事务写相同数据的时候,数据版本控制各个方面都比锁表现得更好。只不过,你很快就会发现磁盘空间消耗巨大。

    数据版本控制和锁机制是两种不同的见解:乐观锁和悲观锁。两者各有利弊,完全取决于使用场景(读多还是写多)。关于数据版本控制,我推荐这篇非常优秀的文章,讲的是PostgreSQL如何实现多版本并发控制的。

    一些数据库,比如DB2(直到版本 9.7)和 SQL Server(不含快照隔离)仅使用锁机制。其他的像PostgreSQL, MySQL 和 Oracle 使用锁和鼠标版本控制混合机制。我不知道是否有仅用版本控制的数据库(如果你知道请告诉我)。

    [2015-08-20更新]一名读者告诉我:

    Firebird 和 Interbase 用不带锁的版本控制。

    版本控制对索引的影响挺有趣的:有时唯一索引会出现重复,索引的条目会多于表行数,等等。

    如果你读过不同级别的隔离那部分内容,你会知道,提高隔离级别就会增加锁的数量和事务等待加锁的时间。这就是为什么多数数据库默认不会使用最高级别的隔离(即串行化)。

    当然,你总是可以自己去主流数据库(像MySQLPostgreSQL 或 Oracle)的文档里查一下。

    日志管理器

    我们已经知道,为了提升性能,数据库把数据保存在内存缓冲区内。但如果当事务提交时服务器崩溃,崩溃时还在内存里的数据会丢失,这破坏了事务的持久性

    你可以把所有数据都写在磁盘上,但是如果服务器崩溃,最终数据可能只有部分写入磁盘,这破坏了事务的原子性

    事务作出的任何修改必须是或者撤销,或者完成。

    有 2 个办法解决这个问题:

    • 影子副本/页(Shadow copies/pages):每个事务创建自己的数据库副本(或部分数据库的副本),并基于这个副本来工作。一旦出错,这个副本就被移除;一旦成功,数据库立即使用文件系统的一个把戏,把副本替换到数据中,然后删掉『旧』数据。
    • 事务日志(Transaction log):事务日志是一个存储空间,在每次写盘之前,数据库在事务日志中写入一些信息,这样当事务崩溃或回滚,数据库知道如何移除或完成尚未完成的事务。
    WAL(预写式日志)

    影子副本/页在运行较多事务的大型数据库时制造了大量磁盘开销,所以现代数据库使用事务日志。事务日志必须保存在稳定的存储上,我不会深挖存储技术,但至少RAID磁盘是必须的,以防磁盘故障。

    多数数据库(至少是Oracle, SQL ServerDB2PostgreSQL, MySQL 和 SQLite) 使用预写日志协议(Write-Ahead Logging protocol ,WAL)来处理事务日志。WAL协议有 3 个规则:

    • 1) 每个对数据库的修改都产生一条日志记录,在数据写入磁盘之前日志记录必须写入事务日志。
    • 2) 日志记录必须按顺序写入;记录 A 发生在记录 B 之前,则 A 必须写在 B 之前。
    • 3) 当一个事务提交时,在事务成功之前,提交顺序必须写入到事务日志。

    这个工作由日志管理器完成。简单的理解就是,日志管理器处于缓存管理器(cache manager)和数据访问管理器(data access manager,负责把数据写入磁盘)之间,每个 update / delete / create / commit / rollback 操作在写入磁盘之前先写入事务日志。简单,对吧?

    回答错误! 我们研究了这么多内容,现在你应该知道与数据库相关的每一件事都带着『数据库效应』的诅咒。好吧,我们说正经的,问题在于,如何找到写日志的同时保持良好的性能的方法。如果事务日志写得太慢,整体都会慢下来。

    ARIES

    1992年,IBM 研究人员『发明』了WAL的增强版,叫 ARIES。ARIES 或多或少地在现代数据库中使用,逻辑未必相同,但AIRES背后的概念无处不在。我给发明加了引号是因为,按照MIT这门课的说法,IBM 的研究人员『仅仅是写了事务恢复的最佳实践方法』。AIRES 论文发表的时候我才 5 岁,我不关心那些酸溜溜的科研人员老掉牙的闲言碎语。事实上,我提及这个典故,是在开始探讨最后一个技术点前让你轻松一下。我阅读过这篇 ARIES 论文 的大量篇幅,发现它很有趣。在这一部分我只是简要的谈一下 ARIES,不过我强烈建议,如果你想了解真正的知识,就去读那篇论文。

    ARIES 代表『数据库恢复原型算法』(Algorithms for Recovery and Isolation Exploiting Semantics)。

    这个技术要达到一个双重目标:

    • 1) 写日志的同时保持良好性能
    • 2) 快速和可靠的数据恢复

    有多个原因让数据库不得不回滚事务:

    • 因为用户取消
    • 因为服务器或网络故障
    • 因为事务破坏了数据库完整性(比如一个列有唯一性约束而事务添加了重复值)
    • 因为死锁

    有时候(比如网络出现故障),数据库可以恢复事务。

    这怎么可能呢?为了回答这个问题,我们需要了解日志里保存的信息。

    日志

    事务的每一个操作(增/删/改)产生一条日志,由如下内容组成:

    • LSN:一个唯一的日志序列号(Log Sequence Number)。LSN是按时间顺序分配的 * ,这意味着如果操作 A 先于操作 B,log A 的 LSN 要比 log B 的 LSN 小。
    • TransID:产生操作的事务ID。
    • PageID:被修改的数据在磁盘上的位置。磁盘数据的最小单位是页,所以数据的位置就是它所处页的位置。
    • PrevLSN:同一个事务产生的上一条日志记录的链接。
    • UNDO:取消本次操作的方法。
      比如,如果操作是一次更新,UNDO将或者保存元素更新前的值/状态(物理UNDO),或者回到原来状态的反向操作(逻辑UNDO) **。
    • REDO:重复本次操作的方法。 同样的,有 2 种方法:或者保存操作后的元素值/状态,或者保存操作本身以便重复。
    • …:(供您参考,一个 ARIES 日志还有 2 个字段:UndoNxtLSN 和 Type)。

    进一步说,磁盘上每个页(保存数据的,不是保存日志的)都记录着最后一个修改该数据操作的LSN。

    *LSN的分配其实更复杂,因为它关系到日志存储的方式。但道理是相同的。

    ** ARIES 只使用逻辑UNDO,因为处理物理UNDO太过混乱了。

    注:据我所知,只有 PostgreSQL 没有使用UNDO,而是用一个垃圾回收服务来删除旧版本的数据。这个跟 PostgreSQL 对数据版本控制的实现有关。

    为了更好的说明这一点,这有一个简单的日志记录演示图,是由查询 “UPDATE FROM PERSON SET AGE = 18;” 产生的,我们假设这个查询是事务18执行的。【译者注: SQL 语句原文如此,应该是作者笔误 】

    每条日志都有一个唯一的LSN,链接在一起的日志属于同一个事务。日志按照时间顺序链接(链接列表的最后一条日志是最后一个操作产生的)。

    日志缓冲区

    为了防止写日志成为主要的瓶颈,数据库使用了日志缓冲区

    当查询执行器要求做一次修改:

    • 1) 缓存管理器将修改存入自己的缓冲区;
    • 2) 日志管理器将相关的日志存入自己的缓冲区;
    • 3) 到了这一步,查询执行器认为操作完成了(因此可以请求做另一次修改);
    • 4) 接着(不久以后)日志管理器把日志写入事务日志,什么时候写日志由某算法来决定。
    • 5) 接着(不久以后)缓存管理器把修改写入磁盘,什么时候写盘由某算法来决定。

    当事务提交,意味着事务每一个操作的 1 2 3 4 5 步骤都完成了。写事务日志是很快的,因为它只是『在事务日志某处增加一条日志』;而数据写盘就更复杂了,因为要用『能够快速读取的方式写入数据』。

    STEAL 和 FORCE 策略

    出于性能方面的原因,第 5 步有可能在提交之后完成,因为一旦发生崩溃,还有可能用REDO日志恢复事务。这叫做 NO-FORCE策略

    数据库可以选择FORCE策略(比如第 5 步在提交之前必须完成)来降低恢复时的负载。

    另一个问题是,要选择数据是一步步的写入(STEAL策略),还是缓冲管理器需要等待提交命令来一次性全部写入(NO-STEAL策略)。选择STEAL还是NO-STEAL取决于你想要什么:快速写入但是从 UNDO 日志恢复缓慢,还是快速恢复。

    总结一下这些策略对恢复的影响:

    • STEAL/NO-FORCE 需要 UNDO 和 REDO: 性能高,但是日志和恢复过程更复杂 (比如 ARIES)。多数数据库选择这个策略。 注:这是我从多个学术论文和教程里看到的,但并没有看到官方文档里显式说明这一点。
    • STEAL/ FORCE 只需要 UNDO.
    • NO-STEAL/NO-FORCE 只需要 REDO.
    • NO-STEAL/FORCE 什么也不需要: 性能最差,而且需要巨大的内存。
    关于恢复

    Ok,有了不错的日志,我们来用用它们!

    假设新来的实习生让数据库崩溃了(首要规矩:永远是实习生的错。),你重启了数据库,恢复过程开始了。

    ARIES从崩溃中恢复有三个阶段:

    • 1) 分析阶段:恢复进程读取全部事务日志,来重建崩溃过程中所发生事情的时间线,决定哪个事务要回滚(所有未提交的事务都要回滚)、崩溃时哪些数据需要写盘。
    • 2) Redo阶段:这一关从分析中选中的一条日志记录开始,使用 REDO 来将数据库恢复到崩溃之前的状态。

    在REDO阶段,REDO日志按照时间顺序处理(使用LSN)。

    对每一条日志,恢复进程需要读取包含数据的磁盘页LSN。

    如果LSN(磁盘页)>= LSN(日志记录),说明数据已经在崩溃前写到磁盘(但是值已经被日志之后、崩溃之前的某个操作覆盖),所以不需要做什么。

    如果LSN(磁盘页)< LSN(日志记录),那么磁盘上的页将被更新。

    即使将被回滚的事务,REDO也是要做的,因为这样简化了恢复过程(但是我相信现代数据库不会这么做的)。

    • 3) Undo阶段:这一阶段回滚所有崩溃时未完成的事务。回滚从每个事务的最后一条日志开始,并且按照时间倒序处理UNDO日志(使用日志记录的PrevLSN)。

     

    恢复过程中,事务日志必须留意恢复过程的操作,以便写入磁盘的数据与事务日志相一致。一个解决办法是移除被取消的事务产生的日志记录,但是这个太困难了。相反,ARIES在事务日志中记录补偿日志,来逻辑上删除被取消的事务的日志记录。

    当事务被『手工』取消,或者被锁管理器取消(为了消除死锁),或仅仅因为网络故障而取消,那么分析阶段就不需要了。对于哪些需要 REDO 哪些需要 UNDO 的信息在 2 个内存表中:

    • 事务表(保存当前所有事务的状态)
    • 脏页表(保存哪些数据需要写入磁盘)

    当新的事务产生时,这两个表由缓存管理器和事务管理器更新。因为是在内存中,当数据库崩溃时它们也被破坏掉了。

    分析阶段的任务就是在崩溃之后,用事务日志中的信息重建上述的两个表。为了加快分析阶段,ARIES提出了一个概念:检查点(check point),就是不时地把事务表和脏页表的内容,还有此时最后一条LSN写入磁盘。那么在分析阶段当中,只需要分析这个LSN之后的日志即可。

    结语

    写这篇文章之前,我知道这个题目有多大,也知道写这样一篇深入的文章会相当耗时。最后证明我过于乐观了,实际上花了两倍于预期的时间,但是我学到了很多。

    如果你想很好地了解数据库,我推荐这篇研究论文:《数据库系统架构》,对数据库有很好的介绍(共110页),而且非计算机专业人士也能读懂。这篇论文出色的帮助我制定了本文的写作计划,它没有像本文那样专注于数据结构和算法,更多的讲了架构方面的概念。

    如果你仔细阅读了本文,你现在应该了解一个数据库是多么的强大了。鉴于文章很长,让我来提醒你我们都学到了什么:

    • B+树索引概述
    • 数据库的全局概述
    • 基于成本的优化概述,特别专注了联接运算
    • 缓冲池管理概述
    • 事务管理概述

    但是,数据库包含了更多的聪明巧技。比如,我并没有谈到下面这些棘手的问题:

    • 如何管理数据库集群和全局事务
    • 如何在数据库运行的时候产生快照
    • 如何高效地存储(和压缩)数据
    • 如何管理内存

    所以,当你不得不在问题多多的 NoSQL数据库和坚如磐石的关系型数据库之间抉择的时候,要三思而行。不要误会,某些 NoSQL数据库是很棒的,但是它们毕竟还年轻,只是解决了少量应用关注的一些特定问题。

    展开全文
  • MySql 数据库主从机制原理说明及配置步骤, MySQL主从的优点主要包含以下三个方面: 主库出现问题,可以快速切换到从库提供服务; 可以在从库上执行查询操作,从主库中更新; 实现读写分离可以在从库中执行备份,...
  • 把今天数据库原理的学习笔记收集整理,供日后复习使用。* 是我认为重要的知识点~ 文章目录数据库系统的基本概念(一)数据库系统的目的(二)*数据的存储方式在文件处理系统中存储组织信息的主要弊端(三)数据库与...
  • 数据库原理实验报告 题目实验六 学号 姓名 班级 日期 ODBC/JDBC数据库编程 2016.10.27 一 实验内容步骤以及结果 1. ODBC配置以及程序调试 50 分 (1) 配置一个 ODBC数据源要求数据源名称 student 其中包含 s( 学生...
  • 数据库原理实验报告

    千次阅读 2019-10-14 16:12:22
    实验一 熟悉数据库管理系统环境 实验二 SQL定义语言 实验三 使用SQL语言进行简单查询 实验四 使用SQL语言进行复杂查询 实验五 SQL常用数据更新操作 实验六 综合应用 实验一:熟悉数据库管理系统环境&&实验...
    -- 查询总的选课数
    select COUNT(*) as 选课总人数
    from student
    
    -- 查询没门被选课程的人数、平均分
    select cno,COUNT(*) as 人数,AVG(grade) as 平均分
    from sc group by cno
    --from sc
    
    --查询每个选课同学所选的课的课程门数和选课平均分
    select COUNT(*) as 课程门数,AVG(grade) as 选课平均分
    from sc
    group by sno
    --查询每个选课平均分在80以上的同学所选的课程门数和平均分
    select sno,COUNT(*) as 所选课程数 ,AVG(grade) as 成绩
    from sc
    group by sno
    having AVG(grade)>=80
    --查询女生人数小于200的各学院的女生人数
    select sdept as 学院 ,COUNT(*) as 女生人数
    from student
    where ssex='女'
    group by sdept
    having COUNT(*) <=200
    
    --查询选课门数在三门以上学生的学号
    select sno as 学号,COUNT(*) as 选课门数
    from student
    --where COUNT(*)>=3
    group by sno
    having COUNT(*)>=1
    --查询选课门数在三门以上且每门成绩都在80分以上学生的学号
    select sno as 学号,COUNT(*) as 选课门数
    from sc
    where grade >=80
    group by sno
    having COUNT(*)>=3
    
    --DAY YEAR
    select DAY('2019-10-23')
    select YEAR(getdate())
    
    --LEFT
    select sname,LEFT(sno,2)--查询sno前两位
    from student
    
    --
    selcet *,YEAR(getdate())-sage
    from student
    where YEAR(getdate())-sage>2000
    
    

    实验要求:

    实验一 熟悉数据库管理系统环境
    实验二 SQL定义语言
    实验三 使用SQL语言进行简单查询
    实验四 使用SQL语言进行复杂查询
    实验五 SQL常用数据更新操作
    实验六 综合应用

    实验一:熟悉数据库管理系统环境&&实验二:SQL定义语言

    在这里插入图片描述
    在这里插入图片描述

    实验过程及分析:

    1.创建一个数据库和需要的表:

    create database XSGL
    go
    use XSGL
    go
    create table student			--创建学生表
    (sno char(8) primary key,       --(主键)学生姓名
     sname char(8) not null unique, --学生姓名
     ssex char(2) default '男' check(ssex='男' or ssex='女'),  --性别给定默认值为'男',取值只能取‘男’或‘女’
     sage tinyint check(sage>13 and sage<50),
     sdept char(20))
    
    
    create table course				 --创建课程表 
    (cno char(2) PRimary key,        --课程编号
     cname varchar(50),  --课程名称
     cpno char(2),       --先修课号
     ccredit tinyint)	 --课程名
    
    create table sc         --创建成绩表
    (sno char(8),           --学生学号
     cno char(2),           --课程编号
     grade tinyint,         --成绩
     constraint pk_grade primary key(sno,cno),
     constraint fk_stuid foreign key(sno) references student(sno),
     constraint fk_course foreign key(cno) references course(cno),
     constraint ck_grade check(grade>=0 and grade<=100) )
    go
    insert into student(sno,sname, ssex,sage,sdept) values('95001', '李勇', '男', 20, 'CS')
    insert into student(sno,sname, ssex,sage,sdept) values('95002', '刘晨', '女', 19, 'IS')
    insert into student(sno,sname, ssex,sage,sdept) values('95003', '王敏', '女', 18, 'MA')
    insert into student(sno,sname, ssex,sage,sdept) values('95004', '张立', '男', 19, 'IS')
    insert into student(sno,sname, ssex,sage,sdept) values('95005', '刘云', '女', 18, 'CS ')
    insert into course(cno, cname,ccredit,cpno) values('1', '数据库', 4, '5')
    insert into course(cno, cname,ccredit,cpno) values('2', '数学', 6, null)
    insert into course(cno, cname,ccredit,cpno) values('3', '信息系统', 3, '1')
    insert into course(cno, cname,ccredit,cpno) values('4', '操作系统', 4, '6')
    insert into course(cno, cname,ccredit,cpno) values('5', '数据结构', 4, '7')
    insert into course(cno, cname,ccredit,cpno) values('6', '数据处理', 3, null)
    insert into course(cno, cname,ccredit,cpno) values('7', 'PASCAL语言', 4, '6')
    insert into sc(sno,cno,grade) values('95001', '1' ,92)
    insert into sc(sno,cno,grade) values('95001', '2' ,85)
    insert into sc(sno,cno,grade) values('95001', '3' ,88)
    insert into sc(sno,cno,grade) values('95002', '2' ,90)
    insert into sc(sno,cno,grade) values('95002', '3' ,80)
    insert into sc(sno,cno,grade) values('95003', '2' ,85)
    insert into sc(sno,cno,grade) values('95004', '1' ,58)
    insert into sc(sno,cno,grade) values('95004', '2' ,85)
    
    (1)STUDENT表中增加一个字段入学时间scome:
    alter table student 
    add scome date
    
    (2)删除STUDENT表中sdept字段:
    alter table student
    drop column sdept
    
    (3)删除创建的SC表中cno字段和COURSE表cno字段之间的外键约束:
    alter table sc
    DROP fk_course
    
    (4)重建(3)中删除的约束:
    alter table sc
    add constraint fk_course foreign key(cno) references course(cno)
    

    (5).重新定义一个简单表,然后用SQL语言DROP语句删除该表结构:

    drop table sc
    

    (6).用SQL语言CREATE INDEX语句定义表STUDENT的SNAME字段的降序唯一索引:

    create index index_sname
    on student(sname desc)
    

    (7).用SQL语言DROP语句删除索引:

    drop index index_sname on student
    

    实验总结:

    1. 创建表的时候可以添加约束
    2. 可以添加主键唯一标识 用primary key
      在这里插入图片描述
    3. 使用alter添加,修改列,还可以删除表中约束如索引 index
    4. 使用DROP 可以直接删除表 删除的时候先要删除外键表后才可以删除主键表
    5. 删除外键只能用alter 指定表 而不能用on来选择表, 删除索引不能用alter 直接用DROP INDEX 索引 ON 表(语法限定)

    实验目的

    掌握简单数据查询操作。

    实验内容

    使用各种查询条件完成指定的查询操作

    实验步骤

    1、创建学生表student、课程表course和选课表SC,并输入数据(注意数据的完整性);

    2、对各表中的数据进行不同条件的查询;

    实验过程(还是使用实验一的表)

    1、查询全体学生的学号和姓名

    select sno,sname 
    from student;
    

    在这里插入图片描述
    2、查询全体学生的详细记录

    select * 
    from student;
    

    在这里插入图片描述
    3、查询软件学院的学生姓名、年龄、系别

    select sname,sage,sdept
    from student
    where sdept='MA';
    

    在这里插入图片描述
    4、查询所有选修过课程的学生学号(不重复)

    select distinct sno 
    from sc;
    

    在这里插入图片描述
    5、查询考试不及格的学生学号(不重复)

    select distinct sno
    from sc
    where grade<60;
    

    在这里插入图片描述
    6、查询不是软件学院、计算机系的学生性别、年龄、系别

    select ssex,sage,sdept
    from student 
    where sdept not in('CS','MA');
    

    在这里插入图片描述
    7、查询年龄18-20岁的学生学号、姓名、系别、年龄

    select sno,sname,sdept,sage 
    from student
    where sage>=18 and sage<=20;
    

    在这里插入图片描述
    8、查询姓李的学生情况
    select *
    from student
    where sname like ‘李%’;
    在这里插入图片描述
    9、查询姓刘或姓李的学生情况
    select *
    from student
    where sname like ‘刘%’ or sname like ‘李%’;
    在这里插入图片描述
    10、查询1983年以后出生的学生姓名

    select sname 
    from student 
    where sage < 2019-1983
    

    在这里插入图片描述
    11、创建表 studentgrad(sno,mathgrade,englishigrade,chinesegrade)计算学生各科总成绩并赋予别名

    create table studentgrade(
        Sno char(8) ,
        mathgrade int,
        englishigrade int,
        chinesegrade int
    )
    

    在这里插入图片描述

    select sum(mathgrade+chinesegrade+englishigrade) '学生总成绩' 
    from studentgrade;
    

    在这里插入图片描述
    12、查询全体学生情况,查询结果按所在系升序排列,对同一系中的学生按年龄降序排列

    select *
    from student 
    order by sdept,sage desc;
    

    在这里插入图片描述

    实验总结

    模糊查询用% 如like ‘李%’
    或者确定仅两个字的用_ 如like ‘李_’

    数据库原理实验四:使用SQL语言进行复杂查询

    实验目的

    掌握复杂数据查询操作。

    实验内容

    掌握各种连接查询、嵌套查询的使用。

    实验过程(还是使用实验一的表)

    1. 查询每个学生及其选课情况
    select student.sno,sname,ssex,sage,sdept,cno,grade
    from student,sc
    where student.sno=sc.sno
    

    在这里插入图片描述
    2. 查询每门课的间接先修课

    select first.cno,second.cpno
    from course first,course second
    where first.cpno=second.cno 
    

    在这里插入图片描述
    3. 将STUDENT,SC进行右连接

    select student.sno,sname,ssex,sage,sdept,cno,grade
    from student right outer join sc on student.sno=sc.sno
    

    在这里插入图片描述
    4. 查询既选修了2号课程又选修了3号课程的学生姓名、学号

    select student.sno,sname
    from student inner join sc on student.sno=sc.sno
    where cno='3' and sc.sno in
    (select sno
    from sc
    where cno='2')
    

    在这里插入图片描述
    5. 查询和刘晨同一年龄的学生

    
    select student.sno,sname
    from student
    where sname!='刘晨' and sage=
    (select sage 
    from student
    where sname='刘晨')
    

    在这里插入图片描述
    6. 选修了课程名为“数据库”的学生姓名和年龄

    select sname,sage
    from student
    where sno in
    (select sno
    from sc
    where cno in
    (select cno
    from course 
    where cname='数据库'))
    
    1. 查询其他系比IS系任一学生年龄小的学生名单
    select student.sno,sname
    from student
    where sdept<>'IS' and
    sage<any
    (select sage 
    from student
    where sdept='IS')
    

    在这里插入图片描述
    8. 查询其他系中比IS系所有学生年龄都小的学生名单

    select student.sno,sname
    from student
    where sdept<>'IS' and 
    sage<all
    (select sage 
    from student 
    where sdept='IS')
    

    在这里插入图片描述
    9. 查询选修了全部课程的学生姓名

    select sname
    from student
    where Sno in
    (select Sno from SC
    group by Sno
    having count(*) = (select count(*) from course ))
    

    在这里插入图片描述
    10. 查询计算机系学生及其性别是男的学生

    select student.sno,sname
    from student
    where sdept='IS' and ssex='男'
    

    在这里插入图片描述
    11. 查询选修课程1的学生集合和选修2号课程学生集合的差集

    select sno
    from sc 
    where cno='1' except 
    select sno
    from sc
    where cno='2'
    

    在这里插入图片描述
    12. 查询李丽同学不学的课程的课程号

    select cno
    from course
    where cno not in
    (select cno
    from sc
    where sno in
    (select sno
    from student
    where sname='李丽'))
    

    在这里插入图片描述
    13. 查询选修了3号课程的学生平均年龄

    select avg(sage) as avgsage
    from student inner join sc on student.sno=sc.sno
    where cno='3'
    

    在这里插入图片描述
    14. 求每门课程学生的平均成绩

    select cno,avg(grade) as avggrade
    from sc
    group by cno
    

    在这里插入图片描述
    15. 统计每门课程的学生选修人数(超过3人的才统计)。要求输出课程号和选修人数,结果按人数降序排列,若人数相同,按课程号升序排列

    select course.cno '课程号', count(sc.sno) '人数'
    from course,sc 
    where course.cno=sc.cno 
    group by course.cno 
    having count(sc.sno)>3 
    order by count(sc.sno) desc,course.cno asc
    

    在这里插入图片描述
    16. 查询学号比刘晨大,而年龄比他小的学生姓名

    select sname
    from student
    where sno>(select sno from student where sname='刘晨') 
    and
    sage<(select sage from student where sname='刘晨')
    

    在这里插入图片描述
    17. 求年龄大于所有女同学年龄的男同学姓名和年龄

    select sname,sage
    from student
    where ssex='男' and 
    sage>(select max(sage) from student where ssex='女')
    

    在这里插入图片描述

    实验总结

    1. 分组group by 要用having来限制条件
    2. desc是降序,asc是升序
    3. any()是任意,all()是所有

    数据库原理实验五:SQL的常用数据更新操作

    实验目的

    掌握SQL的常用数据更新操作,熟练应用INSERT,UPDATE,DELETE语句。

    实验内容

    1. 插入如下学生记录(学号:95030,姓名:李莉,年龄:18)
    insert into student(sno,sname,sage)
    values ('95030','李莉',18)
    

    在这里插入图片描述
    2. 插入如下选课记录(95030,1)

    insert into sc(sno,cno)
    values('95030',1)
    

    在这里插入图片描述
    3. 计算机系学生年龄改成20

    update student
    set sage=20
    where sdept='CS'
    

    在这里插入图片描述
    4. 把数学系所有学生成绩改成0

    update sc
    set grade=0
    where 'MA'=
    (select sdept
    from student
    where student.sno=sc.sno)
    

    在这里插入图片描述
    5. 把低于总平均成绩的女同学成绩提高5分

    update sc 
    set grade+=5
    where grade<
    (select avg(grade) 
    from sc inner join student
    on student.sno=sc.sno
    where ssex='女')
    

    在这里插入图片描述
    6. 删除95030学生信息

    delete
    from student
    where sno='95030'
    
    1. 删除SC表中无成绩的记录
    delete 
    from sc
    where grade is null;
    
    1. 删除张娜的选课记录
    delete
    from sc
    where sno=
    (select sno from student where sname='张娜')
    
    1. 删除不及格的学生选课记录
    delete
    from sc
    where grade<60
    

    10.删除数学系所有学生选课记录

    delete
    from sc
    where sno in 
    (select sno from student where sdept='MA')
    
    1. 删除所有未被选修的课程
    delete
    from course
    where cno not in (select cno from sc)
    
    1. 查询每一门课程成绩都大于等于80分的学生学号、姓名和性别,把值送往另一个已经存在的基本表STU(SNO,SNAME,SSEX)中
    create table STU 
    (sno char(8), 
    sname char(8), 
    ssex char(2) 
    )
    
    insert into STU(sno,sname,ssex);
    
    select distinct student.sno,sname,ssex
    from student,sc 
    where student.sno not in
    (select sno from sc where grade<80) and student.sno=sc.sno
    
    1. 建立一个sdeptgrade 表,包含(sdept,avggrade)字段,对每一个系,求学生的成绩,并把结果存入sdeptgrade
    create table sdeptgrade 
    (sdept char(8) primary key, 
    avggrade int
    ) 
    
    insert into sdeptgrade;
    
    select student.sdept, avg(sc.grade) 
    from student inner join sc
    on (student.sno = sc.sno) 
    group by student.sdept;
    

    实验总结

    删除主键表数据如果有外键约束就会报错

    数据库原理实验六:综合应用

    实验目的

    根据数据库设计步骤完成简单应用的设计和创建,了解数据在前后台的交互。

    实验内容

    1、建立一个数据库和五张表的表结构。

    2、根据表结构使用SQL语句添加相应约束。

    (1)员工人事表employee
    在这里插入图片描述

    create table employee
    (
    emp_no char(5) primary key,
    emp_name char(10) not null,
    Sex char(1) not null,
    Dept char(4) not null,
    Title char(6) not null,
    data_hired datetime not null,
    birthday datetime null,
    salary int not null,
    Addr char(50) null,
    Mod_date datetime default(getdate())
    )
    

    (2)客户表customer
    在这里插入图片描述

    create table customer
    (
    cust_id char(5) primary key,
    cust_name char(20) not null,
    Addr char(40) not null,
    tel_no char(10) not null,
    Zip char(6) null
    )
    

    (3)销售主表sales
    在这里插入图片描述

    create table sales
    (
    order_no int primary key,
    cust_id char(5) not null,
    sale_id char(5) not null,
    tot_amt numeric(9,2) not null,
    order_date datetime not null,
    ship_date datetime not null,
    incoice_no char(10) not null
    )
    

    (4)销货明细表sale_item
    在这里插入图片描述

    create table sale_item
    (
    order_no int not null,
    prod_id char(5) not null,
    Qty int not null,
    unit_price numeric(9,2) not null,
    order_date datetime null
    constraint primary_sale primary key(order_no,prod_id)
    )
    

    (5)产品名称表product

    在这里插入图片描述

    create table product
    (
    prod_id char(5) not null primary key,
    prod_naem char(20) not null
    )
    

    3、录入数据并实现实现如下查询

    (1)查找定单金额高于20000的客户编号;

    select cust_id 
    from sales 
    where tot_amt>20000
    

    (2)选取销售数量最多的前5条订单订单号、数量;

    select top 5 order_no,Qty 
    from sale_item 
    order by Qty desc
    

    (3)显示sale_item表中每种个别产品的订购金额总和,并且依据销售金额由大到小排

         来显示出每一种产品的排行榜;
    
    select prod_id, sum(Qty*unit_price) '金额' 
    from sale_item 
    group by prod_id 
    order by '金额' desc
    

    (5)计算每一产品每月的销售金额总和,并将结果按销售(月份,产品编号)排序;

    select "s2".月份,sum("s2".tot_amt) '销售金额总和',"s1".prod_id '产品编号'
    from sale_item "s1"
    join (select month(order_date) '月份',order_no,tot_amt from sales) "s2"
    on "s1".order_no="s2".order_no
    group by "s2".月份,"s1".prod_id
    order by "s2".月份,"s1".prod_id
    

    (6)检索单价高于2400元的的产品编号、产品名称、数量、单价及所在订单号;

    select s.prod_id, product.prod_name, s.Qty, s.unit_price, s.order_no 
    from product,sale_item s
    where s.unit_price> 2400 and product.prod_id=s.prod_id
    

    (7)计算每一产品销售数量总和与平均销售单价;

    select sum(Qty)'销售数量', avg(unit_price)'平均销售单价'
    from sale_item
    

    (8)创建一个视图,该视图只含上海客户信息,即客户号、客户姓名、住址。

    create view view_name AS
    select cust_id,cust_name,Addr from customer where Addr='上海'
    

    实验总结

    1. 设置主键,自动为 not null

    2. unique和主键区别:
      unique:唯一并且 一张表可设置多个unique 可空 但是只能有一行数据空
      主键: 唯一并且 一张表只能有一个主键

    3. 主键可通过 constraint 主键名 primary key(列,列)来设置组合键

    4. 给表取别名的时候 不能用单引号,要用双引号或者不用引号
      而给列取别名的时候可以选择单引号 或者 as 连接词 或者不用引号

    5. 视图是为了保存一张表 下次查找该表 可直接 使用 如本实验中:

    select * from view_name 
    

    就可以查看视图。

    展开全文
  • 实验步骤 1、创建学生表student、课程表course和选课表SC,并输入数据(注意数据的完整性); 2、对各表中的数据进行不同条件的查询; 实验过程(还是使用实验一的表) 1、查询全体学生的学号和姓名 select sno...
  • v1.0可编辑可修改 v1.0可编辑可修改 PAGE PAGE # 课程名称 数据库原理 实验 成绩 实验名称 交互式SQL语言 学号 姓名 班级 日期 实验目的 熟悉数据库的交互式 SQL工具 熟悉通过SQL语言对数据库进行操作; 实验平台 ...
  • 关系数据库系统(数据库原理

    千次阅读 多人点赞 2019-06-12 22:15:51
    关系数据库系统(数据库原理) 目录 一、关系数据结构 二、关系的完整性 三、关系运算 四、关系的规范化 一、关系数据结构 1、关系的定义和性质 (1)、 关系的数学定义: 域:一组有相同数据类型的值得...
  • 数据库原理(第5版)

    千次下载 热门讨论 2011-11-08 13:41:53
    本版继续使用之前版本增加的较为有效的规范化讨论,使用一个四步过程来演示规范化关系的规定步骤。这种方法不仅简化了规范化任务,而且使规范化原理更易于理解,因此当前版本仍沿用了这一方法。教师如需更多了解范式...
  • 数据库原理与应用

    2011-10-27 11:36:02
    数据库原理与应用
  • 实验六 数据库原理综合实验 1 实验目的 (1) 运用所学的数据库设计技术,针对一个具体的应用系统,完成系统数据库的概念模型、逻辑模型和物理模型的设计。以巩固理论课程上所学的知识,更好地掌握数据库设计技术...
  • 数据库原理—关系数据库

    千次阅读 2020-09-05 19:58:37
    1、关系数据库结构 (1)域:一组具有相同数据类型的值的集合(如整数、实数、指定长度的字符串集合) (2)笛卡尔积运算:假设两个集合D1和D2,其中D1={2,4},D2={1,3,5},这两个集合的笛卡尔积D1×D2={(2,1)...
  • 数据库原理复习笔记(实用)

    万次阅读 多人点赞 2018-12-20 16:36:59
    这是大三上学期复习数据库时自己整理的,有些地方可能有误,大家可以参考参考,欢迎讨论哦 最后有一些习题
  • 数据库原理 实验 成绩 实验名称 交互式SQL语言 学号 班级 日期 实验目的 熟悉数据库的交互式SQL工具 熟悉通过SQL语言对数据库进行操作 实验平台 利用RDBMSSQL Server 2005及其交互查询工具来操作SQL语言 实验容与...
  • 一文看懂数据库原理

    万次阅读 多人点赞 2018-06-25 16:16:02
    你可以自己谷歌/百度一下『关系型数据库原理』,看看结果多么的稀少【译者注:百度为您找到相关结果约1,850,000个…】 ,而且找到的那些文章都很短。现在如果你查找最近时髦的技术(大数据、NoSQL或JavaScript...
  • Oracle数据库学习(一)--数据库原理及SQL

    万次阅读 多人点赞 2016-03-22 22:59:54
    数据库原理 SQL(DDL、DML) 1. 数据库原理 1.1. 数据库简介 1.1.1. 文件存储 对数据的存储需求一直存在。保存数据的方式,经历了手工管理、文件管理等阶段,直至数据库管理阶段。 文件存储方式保存数据的弊端: ...
  • 欢迎下载 欢迎下载 PAGE # 数据库原理实验报告 题目实验六ODBC/JDB数据库编程学号 题目实验六 ODBC/JDB数据库编程 学号 姓名 班级 日期 2016.10.27 实验内容步骤以及结果 ODB配置以及程序调试50分 1配置一个ODB数据...
  • jdbc访问数据库步骤

    2012-12-12 22:14:57
    jdbc原理 jdbc访问数据库步骤 数据库
  • 概念结构设计的方法与步骤续;概念结构设计的方法与步骤续;概念结构设计的方法与步骤续;3 数据抽象和局部E-R模型设计 数据抽象 1.分类将一类具有共同特性和行为的对象定义为一种类型如E-R模型中的实体型 2.聚集定义某...
  • 数据库原理实验报告 题目实验六 学号 姓名 班级 日期 ODBC/JDBC数据库编程 2016.10.27 一 实验内容步骤以及结果 1. ODBC配置以及程序调试 50 分 (1) 配置一个 ODBC数据源要求数据源名称 student 其中包含 s( 学生...
  • 数据库原理实验报告 题目实验六 ODBC/JDBC数据库编程 学号 姓名 班级 日期 2016.10.27 实验内容步骤以及结果 ODBC配置以及程序调试50分 配置一个ODBC数据源要求数据源名称student其中包含s(学生信息)表 打开运行-...
  • Oracle:数据库原理

    千次阅读 2015-05-24 00:24:56
    数据库原理 1.1. 数据库简介 1.1.1. 文件存储 对数据的存储需求一直存在。保存数据的方式,经历了手工管理、文件管理等阶段,直至数据库管理阶段。 文件存储方式保存数据的弊端: · 缺乏对数据的整体管理,数据...
  • 数据库原理》— 数据库系统概论第五版习题解析

    万次阅读 多人点赞 2017-05-29 14:57:48
    数据库系统概论前七章习题解析 第1章绪论 1.试述数据、数据库数据库系统、数据库管理系统的概念。答: (l)数据(Data):描述事物的符号记录称为数据。数据的种类有数字、文字、图形、图像、声音、正文等。...
  • 数据库原理与应用》复习总结

    万次阅读 多人点赞 2018-09-19 16:32:25
    数据库原理与应用》复习总结 数据库技术就是主要研究如何科学的组织和存储数据,高效的获取和处理数据,并可以满足用户各种不同的信息需求的技术,因为对数据库技术的需求非常大,所以学习这门课的知识和技术是...
  • 数据库原理答案

    2012-05-22 13:10:54
    2011年自考数据结构课后习题答案,个人认为写得不错,步骤比较详细
  • mysql数据库原理分析

    千次阅读 2018-01-30 12:08:01
    你可以自己谷歌/百度一下『关系型数据库原理』,看看结果多么的稀少【译者注:百度为您找到相关结果约1,850,000个…】 ,而且找到的那些文章都很短。现在如果你查找最近时髦的技术(大数据、NoSQL或JavaScript

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 182,124
精华内容 72,849
关键字:

数据库原理查询步骤