精华内容
下载资源
问答
  • 所谓的回归树模型其实就是用树形模型来解决回归问题,树模型当中最经典的自然还是决策树模型,它也是几乎所有树模型的基础。虽然基本结构都是使用决策树,但是根据预测方法的不同也可以分为两种。第一种,树上的叶子...
  • 决策树(二):回归树模型

    千次阅读 2019-09-26 13:43:35
    下面介绍的回归树和另一篇文章...而在回归树的概念中,每个非叶子节点也是需要根据某个特征分出子树,但是这个特征的取值是连续的,就不可能像分类树那样依据多少个取值分为多少个子树,所以在回归树模型中,一般都...

    下面介绍的回归树和另一篇文章介绍的分类树,都属于决策树范畴。分类树的模型是每个非叶子节点都是一个分类特征,按照该分类特征的不同取值,将数据集分为多少个子集;并且分类树模型我们要找的是测试数据集的最终分类结果,而这个结果是标称型数据。而在回归树的概念中,每个非叶子节点也是需要根据某个特征分出子树,但是这个特征的取值是连续的,就不可能像分类树那样依据多少个取值分为多少个子树,所以在回归树模型中,一般都是二叉树,每个非叶子节点的分类特征都取一个值,小于这个值的数据分到左子树,大于这个值的分到右子树,等于这个值的我感觉是两边都可。

    换一种说法,二叉树内部取“是”和“否”的分法,一个节点的条件时x<=a(a是我们计算出来的合适的分隔数据点),其中小于等于a的我们取“是”,也就是放到左子树,大于a的,我们取“否”,放到右子树。

    1. 回归树的生成

    我们知道,不管是在回归树的生成过程中,还是生成之后,所有的叶子节点都是一堆数据集,而我们的目标就是对叶子节点上的数据集进行误差最小化分析,不断划分,直到叶子节点的误差小于一定的阈值。所以在每个叶子节点上,我们用平方误差

    ,来表示回归树训练过程中的预测误差,其中f(xi)是期望最优值,我们取所有yi的平均值,即 。下来就是需要取,最优的分割特征及其分割值,我们采用启发式方法(我理解的启发式方法,通俗的说,就是每次拿一个特征,然后取此特征按照一定步长改变该特征的值从小到大去试,然后遍历完所有特征后,取到误差最小的特征及其分割值)。下面先给出公式,然后对这个公式做解释:

    上面的两个公式是对数据集进行预划分,R1和R2分别是划分后的两个数据集,j是选择第j个变量,也就是我们熟悉的第j个特征,s是划分标准,x(j)是每个样本中第j个变量的取值。上面已经将数据预划分成了两个数据集,下面就是要计算这两个数据集的误差:

    上式中的中括号里面的表示,在父节点划分标准为第j个变量,划分点为s的情况下,取两个子集小误差,里面是两个最小值的和,分别表示取一个合适的c1和c2,使子集的平方和最小,而这个c1和c2的取值分别是子集yi的平均数。而外层的循环,就是取合适的变量j,以及其合适的划分标准s使划分后的子集误差最小。

    所以以上过程是个不断迭代的过程,不断取j和其对应的s值,等取完所有的j和s后,得到误差最小的那个j和s,作为此次的划分依据。

    1. 模型树的生成

    其实模型树和回归树生成过程差不多,只不过是叶子结点的损失计算方式不同。从上面的回归树的生成过程可知,构建过程中每个叶子结点的预测值是yi的平均值,然后再用取平方误差的方式。但是模型树构建过程中,不用平均值作为预测值,而是用节点的样本拟合一条直线 ,然后计算 作为预测值,放到回归树的生成过程中,f(xi)就是所有yi的平均值。

    具体的直线拟合的公式,可以参考我的另一篇文章《回归》中拟合直线的方式。这里只给出计算公式:

    是直线的拟合参数,X是样本数据,y是样本数据对应的结果。

    1. 决策树的剪枝

    其实回归树和模型树的剪枝过程和分类树的剪枝过程类似,其损失函数都可以写成以下的表达式:

    ,和分类树不同的是预测误差的计算方式不同,即C(T)的计算方式不同。 ,这里f(xi)是预测值或者平均数。

     

    不过有的书上损失的函数的损失函数的计算方法没有考虑数的复杂程度,也就是没有α|T|项,这个应该是不同的书上有不同的方法,得知道有这么种方法。

    展开全文
  • 分类-回归树模型(CART)在R语言中的实现

    CART模型,即Classification And Regression Trees。它和一般回归分析类似,是用来对变量进行解释和预测的工具,也是数据挖掘中的一种常用算法。如果因变量是连续数据,相对应的分析称为回归树,如果因变量是分类数据,则相应的分析称为分类树。

    决策树是一种倒立的树结构,它由内部节点、叶子节点和边组成。其中最上面的一个节点叫根节点。 构造一棵决策树需要一个训练集,一些例子组成,每个例子用一些属性(或特征)和一个类别标记来描述。构造决策树的目的是找出属性和类别间的关系,一旦这种关系找出,就能用它来预测将来未知类别的记录的类别。这种具有预测功能的系统叫决策树分类器。其算法的优点在于:1)可以生成可以理解的规则。2)计算量相对来说不是很大。3)可以处理多种数据类型。4)决策树可以清晰的显示哪些变量较重要。

    下面以一个例子来讲解如何在R语言中建立树模型。为了预测身体的肥胖程度,可以从身体的其它指标得到线索,例如:腰围、臀围、肘宽、膝宽、年龄。

    # 首先载入所需软件包 
    > library(rpart) 
    > library(maptree)
    > library(TH.data)
    
    # 读入样本数据 
    > data("bodyfat", package="TH.data")  # 原文mboost包中没有此数据集了,改用TH.data

    rpart()函数用法:

    rpart(formula, data, weights, subset, na.action = na.rpart, method, model = FALSE, x = FALSE, y = TRUE, parms, control, cost, …)

    主要参数说明:
    formula:回归方程形式:例如 y~x1+x2+x3。
    data:数据:包含前面方程中变量的数据框(dataframe)。
    na.action:缺失数据的处理办法:默认办法是删除因变量缺失的观测而保留自变量缺失的观测。
    method:根据树末端的数据类型选择相应变量分割方法,本参数有四种取值:连续型 =>“anova”;离散型 =>“class”;计数型(泊松过程) =>“poisson”;生存分析型]“exp”。程序会根据因变量的类型自动选择方法,但一般情况下最好还是指明本参数,以便让程序清楚做哪一种树模型。
    parms:用来设置三个参数:先验概率、损失矩 阵、分类纯度的度量方法。
    control:控制每个节点上的最小样本量、交叉验证的次数、复杂性参量:即cp:complexity pamemeter,这个参数意味着对每一步拆分,模型的拟合优度必须提高的程度,等等。

    # 建立公式 
    > formula <- DEXfat~age+waistcirc+hipcirc+elbowbreadth+kneebreadth
    
    # 用rpart命令构建树模型,结果存在fit变量中 
    > fit <- rpart(formula,method='anova',data=bodyfat)
    
    # 直接调用fit可以看到结果
    > fit
    n= 71 
    
    node), split, n, deviance, yval
          * denotes terminal node
    
     1) root 71 8535.98400 30.78282  
       2) waistcirc< 88.4 40 1315.35800 22.92375  
         4) hipcirc< 96.25 17  285.91370 18.20765 *
         5) hipcirc>=96.25 23  371.86530 26.40957  
          10) waistcirc< 80.75 13  117.60710 24.13077 *
          11) waistcirc>=80.75 10   98.99016 29.37200 *
       3) waistcirc>=88.4 31 1562.16200 40.92355  
         6) hipcirc< 109.9 13  136.29600 35.27846 *
         7) hipcirc>=109.9 18  712.39870 45.00056 *
    
    # 也可以用画图方式将结果表达得更清楚一些 
    > draw.tree(fit) 

    这里写图片描述

    建立树模型要权衡两方面问题,一个是要拟合得使分组后的变异较小,另一个是要防止过度拟合,而使模型的误差过大,前者的参数是CP,后者的参数是Xerror。所以要在Xerror最小的情况下,也使CP尽量小。如果认为树模型过于复杂,我们需要对其进行修剪。

    # 首先观察模型的误差等数据 
    > printcp(fit)
    
    Regression tree:
    rpart(formula = formular, data = bodyfat, method = "anova")
    
    Variables actually used in tree construction:
    [1] hipcirc   waistcirc
    
    Root node error: 8536/71 = 120.23
    
    n= 71 
    
            CP nsplit rel error  xerror     xstd
    1 0.662895      0   1.00000 1.04709 0.168405
    2 0.083583      1   0.33710 0.41940 0.098511
    3 0.077036      2   0.25352 0.43022 0.086202
    4 0.018190      3   0.17649 0.31948 0.065217
    5 0.010000      4   0.15830 0.27572 0.064809
    
    
    # 调用CP(complexity parameter)与xerror的相关图,一种方法是寻找最小xerror点所对应的CP值,并由此CP值决定树的大小,另一种方法是利用1SE方法,寻找xerror+SE的最小点对应的CP值。
    > plotcp(fit)
    

    这里写图片描述

    # 用prune命令对树模型进行修剪(本例的树模型不复杂,并不需要修剪) 
    pfit=prune(fit,cp=fit$cptable[which.min(fit$cptable[,"xerror"]),"CP"])
    
    # 模型初步解释:腰围和臀围较大的人,肥胖程度较高,而其中腰围是最主要的因素。 
    # 利用模型预测某个人的肥胖程度
    
    > ndata=data.frame(waistcirc=99,hipcirc=110,elbowbreadth=6,kneebreadth=8,
    age=60) 
    > predict(fit,newdata=ndata) 
    
    # 本文主要参考了Yanchang Zhao的文章:“R and Data Mining: Examples and Case Studies”

    本文转载至:数据科学与R语言

    本文转载至:我爱机器学习

    展开全文
  • 《机器学习实战》9.3树回归模型树和项目案例 搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’ 获取更多人工智能、机器学习干货 csdn:https://blog.csdn.net/baidu_31657889/ github:...

    《机器学习实战》9.3树回归之模型树和项目案例

    搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’ 获取更多人工智能、机器学习干货
    csdn:https://blog.csdn.net/baidu_31657889/
    github:https://github.com/aimi-cn/AILearners

    本文出现的所有代码,均可在github上下载,不妨来个Star把谢谢~:Github代码地址

    一、引言

    这一节我们来介绍模型树以及进行一个简单的树回归的项目实战

    二、模型树

    2.1 模型树简介

    回归树的叶节点是常数值,而模型树的叶节点是一个回归方程。

    用树来对数据建模,除了把叶节点简单地设定为常数值之外,还有一种方法是把叶节点设定为分段线性函数,这里所谓的 分段线性(piecewise linear) 是指模型由多个线性片段组成。

    我们看一下图中的数据,如果使用两条直线拟合是否比使用一组常数来建模好呢?答案显而易见。可以设计两条分别从 0.0-0.3、从 0.3-1.0 的直线,于是就可以得到两个线性模型。因为数据集里的一部分数据(0.0-0.3)以某个线性模型建模,而另一部分数据(0.3-1.0)则以另一个线性模型建模,因此我们说采用了所谓的分段线性模型。

    在这里插入图片描述

    决策树相比于其他机器学习算法的优势之一在于结果更易理解。很显然,两条直线比很多节点组成一棵大树更容易解释。模型树的可解释性是它优于回归树的特点之一。另外,模型树也具有更高的预测准确度。

    将之前的回归树的代码稍作修改,就可以在叶节点生成线性模型而不是常数值。下面将利用树生成算法对数据进行划分,且每份切分数据都能很容易被线性模型所表示。这个算法的关键在于误差的计算。

    那么为了找到最佳切分,应该怎样计算误差呢?前面用于回归树的误差计算方法这里不能再用。稍加变化,对于给定的数据集,应该先用模型来对它进行拟合,然后计算真实的目标值与模型预测值间的差值。最后将这些差值的平方求和就得到了所需的误差。

    2.2、模型树 代码

    我们创建modelTree.py文件 编写代码如下

    #!/usr/bin/env python
    # -*- encoding: utf-8 -*-
    '''
    @File    :   modelTree.py
    @Time    :   2019/08/12 14:47:06
    @Author  :   xiao ming 
    @Version :   1.0
    @Contact :   xiaoming3526@gmail.com
    @Desc    :   None
    @github  :   https://github.com/aimi-cn/AILearners
    '''
    
    # here put the import lib
    from numpy import *
    import numpy as np
    import matplotlib.pyplot as plt
    
    '''
    @description: 根据特征切分数据集合
    @param: dataSet - 数据集合
            feature - 带切分的特征
            value - 该特征的值
    @return: mat0 - 切分的数据集合0
            mat1 - 切分的数据集合1
    '''
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    '''
    @description: 加载数据
    @param: fileName - 文件名 
    @return: dataMat - 数据矩阵
    '''
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('\t')
            fltLine = list(map(float, curLine))                    #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    '''
    @description: 绘制ex00.txt数据集
    @paramL filename - 文件名
    @return: None
    '''
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                                        #加载数据集
        n = len(dataMat)                                                    #数据个数
        xcord = []; ycord = []                                                #样本点
        for i in range(n):                                                    
            xcord.append(dataMat[i][0]); ycord.append(dataMat[i][1])        #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                            #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)                #绘制样本点
        plt.title('DataSet')                                                #绘制title
        plt.xlabel('X')
        plt.show()
    
    '''
    @description: 生成叶结点
    @param: dataSet - 数据集合
    @return: 目标变量的均值
    '''
    def regLeaf(dataSet):
        return np.mean(dataSet[:,-1])
    
    '''
    @description: 误差估计函数
    @param: dataSet - 数据集合
    @return: 目标变量的总方差
    '''
    def regErr(dataSet):
        return np.var(dataSet[:,-1]) * np.shape(dataSet)[0]
    
    '''
    @description: 找到数据的最佳二元切分方式函数
    @param:  dataSet - 数据集合
            leafType - 生成叶结点
            regErr - 误差估计函数
            ops - 用户定义的参数构成的元组
    @return:  bestIndex - 最佳切分特征
            bestValue - 最佳特征值
    '''
    def chooseBestSplit(dataSet, leafType = regLeaf, errType = regErr, ops = (1,4)):
        import types
        #tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0]; tolN = ops[1]
        #如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        #统计数据集合的行m和列n
        m, n = shape(dataSet)
        #默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        #分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf'); bestIndex = 0; bestValue = 0
        #遍历所有特征列
        for featIndex in range(n - 1):
            #遍历所有特征值
            for splitVal in set(dataSet[:,featIndex].T.A.tolist()[0]):
                #根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                #计算误差估计
                newS = errType(mat0) + errType(mat1)
                #如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        #根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        #如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        #返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    '''
    @description: 树构建函数
    @param: dataSet - 数据集合
            leafType - 建立叶结点的函数
            errType - 误差计算函数
            ops - 包含树构建所有其他参数的元组
    @return: retTree - 构建的回归树
    '''
    def createTree(dataSet, leafType = regLeaf, errType = regErr, ops = (1, 4)):
        #选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        #r如果没有特征,则返回特征值
        if feat == None: return val
        #回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        #分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        #创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree  
    
    '''
    @description: 绘制ex0.txt数据集
    @paramL filename - 文件名
    @return: None
    '''
    def plotDataSet1(filename):
        dataMat = loadDataSet(filename)                                        #加载数据集
        n = len(dataMat)                                                    #数据个数
        xcord = []; ycord = []                                                #样本点
        for i in range(n):                                                    
            xcord.append(dataMat[i][1]); ycord.append(dataMat[i][2])        #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                            #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)                #绘制样本点
        plt.title('DataSet')                                                #绘制title
        plt.xlabel('X')
        plt.show()
    
    # 回归树测试案例
    # 为了和 modelTreeEval() 保持一致,保留两个输入参数
    def regTreeEval(model, inDat):
        """
        Desc:
            对 回归树 进行预测
        Args:
            model -- 指定模型,可选值为 回归树模型 或者 模型树模型,这里为回归树
            inDat -- 输入的测试数据
        Returns:
            float(model) -- 将输入的模型数据转换为 浮点数 返回
        """
        return float(model)
    
    def modelLeaf(dataSet):
        """
        Desc:
            当数据不再需要切分的时候,生成叶节点的模型。
        Args:
            dataSet -- 输入数据集
        Returns:
            调用 linearSolve 函数,返回得到的 回归系数ws
        """
        ws, X, Y = linearSolve(dataSet)
        return ws
    
    
    # 计算线性模型的误差值
    def modelErr(dataSet):
        """
        Desc:
            在给定数据集上计算误差。
        Args:
            dataSet -- 输入数据集
        Returns:
            调用 linearSolve 函数,返回 yHat 和 Y 之间的平方误差。
        """
        ws, X, Y = linearSolve(dataSet)
        yHat = X * ws
        # print corrcoef(yHat, Y, rowvar=0)
        return sum(power(Y - yHat, 2))
    
    
     # helper function used in two places
    def linearSolve(dataSet):
        """
        Desc:
            将数据集格式化成目标变量Y和自变量X,执行简单的线性回归,得到ws
        Args:
            dataSet -- 输入数据
        Returns:
            ws -- 执行线性回归的回归系数 
            X -- 格式化自变量X
            Y -- 格式化目标变量Y
        """
        m, n = shape(dataSet)
        # 产生一个关于1的矩阵
        X = mat(ones((m, n)))
        Y = mat(ones((m, 1)))
        # X的0列为1,常数项,用于计算平衡误差
        X[:, 1: n] = dataSet[:, 0: n-1]
        Y = dataSet[:, -1]
    
        # 转置矩阵*矩阵
        xTx = X.T * X
        # 如果矩阵的逆不存在,会造成程序异常
        if linalg.det(xTx) == 0.0:
            raise NameError('This matrix is singular, cannot do inverse,\ntry increasing the second value of ops')
        # 最小二乘法求最优解:  w0*1+w1*x1=y
        ws = xTx.I * (X.T * Y)
        return ws, X, Y
    
    # 预测结果
    def createForeCast(tree, testData, modelEval=regTreeEval):
        """
        Desc:
            调用 treeForeCast ,对特定模型的树进行预测,可以是 回归树 也可以是 模型树
        Args:
            tree -- 已经训练好的树的模型
            testData -- 输入的测试数据
            modelEval -- 预测的树的模型类型,可选值为 regTreeEval(回归树) 或 modelTreeEval(模型树),默认为回归树
        Returns:
            返回预测值矩阵
        """
        m = len(testData)
        yHat = mat(zeros((m, 1)))
        # print yHat
        for i in range(m):
            yHat[i, 0] = treeForeCast(tree, mat(testData[i]), modelEval)
            # print "yHat==>", yHat[i, 0]
        return yHat
    
    
    
    
    # 模型树测试案例
    # 对输入数据进行格式化处理,在原数据矩阵上增加第0列,元素的值都是1,
    # 也就是增加偏移值,和我们之前的简单线性回归是一个套路,增加一个偏移量
    def modelTreeEval(model, inDat):
        """
        Desc:
            对 模型树 进行预测
        Args:
            model -- 输入模型,可选值为 回归树模型 或者 模型树模型,这里为模型树模型,实则为 回归系数
            inDat -- 输入的测试数据
        Returns:
            float(X * model) -- 将测试数据乘以 回归系数 得到一个预测值 ,转化为 浮点数 返回
        """
        n = shape(inDat)[1]
        X = mat(ones((1, n+1)))
        X[:, 1: n+1] = inDat
        # print X, model
        return float(X * model)
    
    if __name__ == "__main__":
        filename = 'C:\\Users\\Administrator\\Desktop\\blog\\github\\AILearners\\data\\ml\\jqxxsz\\9.RegTrees\\exp2.txt'
        plotDataSet(filename)
    

    对我们要进行处理的数据集进行查看~

    数据集下载地址:数据集下载

    用代码绘制数据集看一下:

    在这里插入图片描述

    我们可以看到和上面我们介绍的图像是一致的 我们就用代码使用模型树对其进行处理生成回归直线

    生成模型树:

    if __name__ == "__main__":
        # 模型树
        myDat = loadDataSet('C:\\Users\\Administrator\\Desktop\\blog\\github\\AILearners\\data\\ml\\jqxxsz\\9.RegTrees\\exp2.txt')
        myMat = mat(myDat)
        myTree2 = createTree(myMat, modelLeaf, modelErr, ops=(1, 20))
        print(myTree2)
    

    处理结果如下:

    在这里插入图片描述

    可以看到,该代码以0.285477为界创建了两个模板,原始图中实际是在0.3处分段,误差不大,createTree()生成的这个线性模型分别是y=3.468+1.1852x 和 y= 0.0016985+11.96477x,与用于生成该数据的真实模型非常接近。该数据实际是由模型y=3.5+1.0x 和 y=0+12x 在加上高斯噪声生成的。

    我们可以看下拟合情况如下图:

    在这里插入图片描述

    可以看出来使用模型树来做出来的回归是不错的。

    三、树回归项目案例

    项目案例1: 树回归与标准回归的比较

    3.1、项目概述

    前面介绍了模型树、回归树和一般的回归方法,下面测试一下哪个模型最好。

    这些模型将在某个数据上进行测试,该数据涉及人的智力水平和自行车的速度的关系。当然,数据是假的。

    3.2、开发流程

    收集数据:采用任意方法收集数据
    准备数据:需要数值型数据,标称型数据应该映射成二值型数据
    分析数据:绘出数据的二维可视化显示结果,以字典方式生成树
    训练算法:模型树的构建
    测试算法:使用测试数据上的R^2值来分析模型的效果
    使用算法:使用训练出的树做预测,预测结果还可以用来做很多事情

    收集数据: 采用任意方法收集数据

    准备数据:需要数值型数据,标称型数据应该映射成二值型数据

    数据存储格式:

    数据集为bikeSpeedVsIq_test.txt和bikeSpeedVsIq_train.txt
    数据集下载地址:数据集下载

    3.000000	46.852122
    23.000000	178.676107
    0.000000	86.154024
    6.000000	68.707614
    15.000000	139.737693
    

    分析数据:绘出数据的二维可视化显示结果,以字典方式生成树

    在这里插入图片描述

    训练算法:模型树的构建

    用树回归进行预测的代码

    # 回归树测试案例
    # 为了和 modelTreeEval() 保持一致,保留两个输入参数
    def regTreeEval(model, inDat):
        """
        Desc:
            对 回归树 进行预测
        Args:
            model -- 指定模型,可选值为 回归树模型 或者 模型树模型,这里为回归树
            inDat -- 输入的测试数据
        Returns:
            float(model) -- 将输入的模型数据转换为 浮点数 返回
        """
        return float(model)
    
    
    # 模型树测试案例
    # 对输入数据进行格式化处理,在原数据矩阵上增加第0列,元素的值都是1,
    # 也就是增加偏移值,和我们之前的简单线性回归是一个套路,增加一个偏移量
    def modelTreeEval(model, inDat):
        """
        Desc:
            对 模型树 进行预测
        Args:
            model -- 输入模型,可选值为 回归树模型 或者 模型树模型,这里为模型树模型
            inDat -- 输入的测试数据
        Returns:
            float(X * model) -- 将测试数据乘以 回归系数 得到一个预测值 ,转化为 浮点数 返回
        """
        n = shape(inDat)[1]
        X = mat(ones((1, n+1)))
        X[:, 1: n+1] = inDat
        # print X, model
        return float(X * model)
    
    
    # 计算预测的结果
    # 在给定树结构的情况下,对于单个数据点,该函数会给出一个预测值。
    # modelEval是对叶节点进行预测的函数引用,指定树的类型,以便在叶节点上调用合适的模型。
    # 此函数自顶向下遍历整棵树,直到命中叶节点为止,一旦到达叶节点,它就会在输入数据上
    # 调用modelEval()函数,该函数的默认值为regTreeEval()
    def treeForeCast(tree, inData, modelEval=regTreeEval):
        """
        Desc:
            对特定模型的树进行预测,可以是 回归树 也可以是 模型树
        Args:
            tree -- 已经训练好的树的模型
            inData -- 输入的测试数据
            modelEval -- 预测的树的模型类型,可选值为 regTreeEval(回归树) 或 modelTreeEval(模型树),默认为回归树
        Returns:
            返回预测值
        """
        if not isTree(tree):
            return modelEval(tree, inData)
        if inData[tree['spInd']] <= tree['spVal']:
            if isTree(tree['left']):
                return treeForeCast(tree['left'], inData, modelEval)
            else:
                return modelEval(tree['left'], inData)
        else:
            if isTree(tree['right']):
                return treeForeCast(tree['right'], inData, modelEval)
            else:
                return modelEval(tree['right'], inData)
    
    
    # 预测结果
    def createForeCast(tree, testData, modelEval=regTreeEval):
        """
        Desc:
            调用 treeForeCast ,对特定模型的树进行预测,可以是 回归树 也可以是 模型树
        Args:
            tree -- 已经训练好的树的模型
            inData -- 输入的测试数据
            modelEval -- 预测的树的模型类型,可选值为 regTreeEval(回归树) 或 modelTreeEval(模型树),默认为回归树
        Returns:
            返回预测值矩阵
        """
        m = len(testData)
        yHat = mat(zeros((m, 1)))
        # print yHat
        for i in range(m):
            yHat[i, 0] = treeForeCast(tree, mat(testData[i]), modelEval)
            # print "yHat==>", yHat[i, 0]
        return yHat
    

    测试算法:使用测试数据上的R^2值来分析模型的效果

    R^2 判定系数就是拟合优度判定系数,它体现了回归模型中自变量的变异在因变量的变异中所占的比例。如 R^2=0.99999 表示在因变量 y 的变异中有 99.999% 是由于变量 x 引起。当 R^2=1 时表示,所有观测点都落在拟合的直线或曲线上;当 R^2=0 时,表示自变量与因变量不存在直线或曲线关系。

    所以我们看出, R^2 的值越接近 1.0 越好。

    使用算法:使用训练出的树做预测,预测结果还可以用来做很多事情

    具体我们可以参照这个完整代码进行编写查看:https://github.com/aimi-cn/AILearners/tree/master/src/py2.x/ml/jqxxsz/9.RegTrees/demo.py

    AIMI-CN AI学习交流群【1015286623】 获取更多AI资料
    扫码加群:
    在这里插入图片描述

    分享技术,乐享生活:我们的公众号计算机视觉这件小事每周推送“AI”系列资讯类文章,欢迎您的关注!
    在这里插入图片描述

    展开全文
  • 本文会讨论决策树中的分类树与回归树,后续文章会继续讨论决策树的Boosting和Bagging的相关方法。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点,其中内部结点表示一个特征或属性,叶结点表示一个类...

    分类目录:《深入理解机器学习》总目录
    相关文章:
    基于决策树的模型(一)分类树和回归树
    基于树的模型(二):集成学习之Bagging和Random Forest
    基于树的模型(三):集成学习之GBDT和XGBoost
    基于树的模型(四):随机森林的延伸——深度森林(gcForest)
    基于树的模型(五):从零开始用Python实现ID3决策树
    基于树的模型(六):Python实现CART决策树并利用Tkinter构建GUI对决策树进行调优
    基于树的模型(七):RF/XGBoost等算法实践与决策树Scala实践等(材料准备中)


    决策树(Decision Tree)是一种基本的分类与回归方法,当决策树用于分类时称为分类树,用于回归时称为回归树。本文主要讨论决策树中的分类树与回归树的一些基本理论,后续文章会继续讨论决策树的BoostingBagging相关方法。

    决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点,其中内部结点表示一个特征或属性,叶结点表示一个类。一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点。叶结点对应于决策结果,其他每个结点则对应于一个属性测试。每个结点包含的样本集合根据属性测试的结果被划分到子结点中,根结点包含样本全集,从根结点到每个叶结点的路径对应了一个判定测试序列。在下图中,圆和方框分别表示内部结点和叶结点。决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树。
    j决策树图示

    分类树

    分类树是一种描述对实例进行分类的树形结构。在使用分类树进行分类时,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分配,直至达到叶结点。最后将实例分到叶结点的类中。

    假设给定训练数据集:
    D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } D=\{(x_1, y_1), (x_2, y_2), ..., (x_N, y_N)\} D={(x1,y1),(x2,y2),...,(xN,yN)}其中, x i = ( x i ( 1 ) , x i ( 2 ) , . . . , x i ( n ) ) T , x_i=(x_i^{(1)}, x_i^{(2)}, ..., x_i^{(n)})^T, xi=(xi(1),xi(2),...,xi(n))T,为输入实例,即特征向量, n n n为特征个数, i = 1 , 2 … , N i=1,2…,N i=12N N N N为样本容量, y i ∈ { 1 , 2 , . . . , K } y_i \in \{ 1, 2, ..., K\} yi{1,2,...,K}为类标。分类树学习的目标是根据给定的训练数据集构建一个决策树模型,使它能够对实例进行正确的分类。

    决策树学习本质上是从训练数据集中归纳出一组分类规则。与训练数据集不相矛盾的决策树(即能对训练数据进行正确分类的决策树)可能有多个,也可能一个也没有。我们需要的是一个与训练数据矛盾较小的决策树,同时具有很好的泛化能力。从另一个角度看,决策树学习是由训练数据集估计条件概率模型。基于特征空间划分的类的条件概率模型有无穷多个,我们选择的条件概率模型应该不仅对训练数据有很好的拟合,而且对未知数据有很好的预测。

    决策树学习用损失函数表示这一目标,其损失函数通常是正则化的极大似然函数,决策树学习的策略是以损失函数为目标函数的最小化。当损失函数确定以后,学习问题就变为在损失函数意义下选择最优决策树的问题。因为从所有可能的决策树中选取最优决策树是NP完全问题,所以现实中决策树学习算法通常采用启发式方法,近似求解这一最优化问题。这样得到的决策树是次最优的。

    决策树分类算法
    输入:
    \qquad 训练集: D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) D = {(x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N)} D=(x1,y1),(x2,y2),,(xN,yN)
    \qquad 属性集: A = a 1 , a 2 , ⋯   , a n A = {a_1, a_2, \cdots, a_n} A=a1,a2,,an
    过程:
    \qquad 函数 T r e e G e n e r a t e ( D , A ) TreeGenerate(D, A) TreeGenerate(D,A)
    输出:
    \qquad 以node为根节点的决策树
    算法:
    ( 1 ) 生成结点根node
    ( 2 ) if D D D中样本全属于同一类别 C k C_k Ck then
    ( 3 ) \quad 将node标记为 C k C_k Ck类叶结点
    ( 4 ) \quad return
    ( 5 ) end if
    ( 6 ) if A = ∅ A = \varnothing A= OR D D D中样本在 A A A上取值相同 then
    ( 7 ) \quad 将node标记为叶结点,其类别标记为 D D D中样本数最多的类
    ( 8 ) \quad return
    ( 9 )end if
    (10)从 A A A中选择最优划分属性 a ∗ a_* a
    (11)for a ∗ a_* a 的每一个值 a ∗ v a_*^v av do
    (12) \quad 为node生成一个分支:令 D v D_v Dv表示 D D D中在 a ∗ a_* a上取值为 a ∗ v a_*^v av的样本子集
    (13) \quad if D v D_v Dv为空 then
    (14) \qquad 将分支结点标记为叶结点,其类别标记为 D D D中样本最多的类
    (15) \qquad return
    (16) \quad else
    (17) \qquad T r e e G e n e r a t e ( D v , A − { a ∗ } ) TreeGenerate(D_v, A - \{a_*\}) TreeGenerate(Dv,A{a})为分支结点
    (18) \quad end if
    (19)end for

    决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个最好的分类的过程。这一过程对应着对特征空间的划分,也对应着决策树的构建。开始,构建根结点,将所有训练数据都放在根结点。选择一个最优特征,按照这一特征将训练数据集分割成子集,使得各个子集有一个在当前条件下最好的分类。如果这些子集已经能够被基本正确分类,那么构建叶结点,并将这些子集分到所对应的叶结点中去,如果还有子集不能被基本正确分类,那么就对这些子集选择新的最优特征,继续对其进行分割,构建相应的结点。如此递归地进行下去,直至所有训练数据子集被基本正确分类,或者没有合适的特征为止。最后每个子集都被分到叶结点上,即都有了明确的类。这就生成了一棵决策树。

    从上述过程中就可以看出,决策树的生成是一个递归过程。在决策树基本算法中,有三种情形会导致递归返回

    1. 当前结点包含的样本全属于同一类别,无需划分
    2. 当前属性集为空,或是所有样本在所有属性上取值相同,无法划分
    3. 当前结点包含的样本集合为空,不能划分

    在第二种情形下,我们把当前结点标记为叶结点,并将其类别设定为该结点所含样本最多的类别。在第三种情形下,同样把当前结点标记为叶结点,但将其类别设定为其父结点所含样本最多的类别。这两种情形的处理实质不同:第二种情况是在利用当前结点的后验分布,而第三种情况则是把父结点的样本分布作为当前结点的先验分布

    以上方法生成的决策树可能对训练数据有很好的分类能力,但对未知的测试数据却未必有很好的分类能力,即可能发生过拟合现象。我们需要对已生成的树自下而上进行剪枝,将树变得更简单,从而使它具有更好的泛化能力。具体地,就是去掉过于细分的叶结点,使其回退到父结点,甚至更高的结点,然后将父结点或更高的结点改为新的叶结点。如果特征数量很多,也可以在决策树学习开始的时候,对特征进行选择,只留下对训练数据有足够分类能力的特征。

    可以看出,决策树学习算法包含特征选择决策树的生成决策树的剪枝过程。由于决策树表示一个条件概率分布,所以深浅不同的决策树对应着不同复杂度的概率模型。决策树的生成对应于模型的局部选择,决策树的剪枝对应于模型的全局选择。决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全局最优。

    决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。分类树具有良好的可读性与分类速度快的优点。分类树在学习时,利用训练数据,根据损失函数最小化的原则建立分类树模型,在预测时,对新的数据,利用分类树模型进行分类。决策树学习通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。

    决策树与if-then规则

    可以将决策树看成一个if-then规则的集合:由决策树的根结点到叶结点的每一条路径构建一条规则,路径上内部结点的特征对应着规则的条件,而叶结点的类对应着规则的结论。决策树的路径或其对应的if-then规则集合具有一个重要的性质——互斥并且完备。这就是说,每一个实例都被一条路径或一条规则所覆盖,而且只被一条路径或一条规则所覆盖。这里所谓覆盖是指实例的特征与路径上的特征一致或实例满足规则的条件。

    决策树与条件概率分布

    决策树还表示给定特征条件下类的条件概率分布。这一条件概率分布定义在特征空间的一个划分上。将特征空间划分为互不相交的单元或区域,并在每个单元定义一个类的概率分布就构成了一个条件概率分布。决策树的一条路径对应于划分中的一个单元。决策树所表示的条件概率分布由各个单元给定条件下类的条件概率分布组成。假设 X X X为表示特征的随机变量, Y Y Y为表示类的随机变量,那么这个条件概率分布可以表示为 P ( Y ∣ X ) P(Y|X) PYX X X X取值于给定划分下单元的集合, Y Y Y取值于类的集合。各叶结点(单元)上的条件概率往往偏向某一个类,即属于某一类的概率较大。决策树分类时将该结点的实例强行分到条件概率大的那一类去。

    决策树的优缺点
    • 计算复杂度不高
    • 对中间缺失值不敏感
    • 解释性强,在解释性方面甚至比线性回归更强
    • 与传统的回归和分类方法相比,决策树更接近人的决策模式
    • 可以用图形表示,非专业人士也可以轻松理解
    • 可以直接处理定性的预测变量而不需创建哑变量
    • 决策树的预测准确性一般比回归和分类方法弱,但可以通过用集成学习方法组合大量决策树,显著提升树的预测效果

    特征选择

    特征选择在于选取对训练数据具有分类能力的特征。这样可以提高决策树学习的效率。如果利用一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征是没有分类能力的。经验上扔掉这样的特征对决策树学习的精度影响不大。比如,我们希望构建一棵决策树来根据不同人的各种属性来预测每个人性别,那么对于属性“头发的长度”可能就要比属性“头发的颜色”所能包含的信息更多。因为一般来说,男生的头发要比女生的头发短,所以我们希望“头发的长度”这个属性处于决策树的上部。随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的“纯度”(purity)越来越高。

    信息增益

    为了便于说明信息增益,先给出熵与条件熵的定义。在信息论与概率统计中,熵(entropy)是表示随机变量不确定性的度量。设 X X X是一个取有限个值的离散随机变量,其概率分布为:
    P ( X = x i ) = p i , i = 1 , 2 , ⋯   , n P(X = x_i) = p_i, i = 1, 2, \cdots, n P(X=xi)=pi,i=1,2,,n
    则随机变量 X X X的熵定义为:
    H ( X ) = − ∑ i = 1 n p i log ⁡ p i H(X) = -\sum_{i = 1}^n p_i \log p_i H(X)=i=1npilogpi
    在上式中,若 p i = 0 p_i = 0 pi=0,则定义 p i log ⁡ p i = 0 p_i \log p_i = 0 pilogpi=0。通常,上式中的对数以 2 2 2为底或以 e e e为底(自然对数),这时熵的单位分别称作比特(bit)或纳特(nat).由定义可知,熵只依赖于 X X X的分布,而与 X X X的取值无关,所以也可将 X X X的熵记作 H ( p ) H(p) H(p),即:
    H ( p ) = − ∑ i = 1 n p i log ⁡ p i H(p) = -\sum_{i = 1}^n p_i \log p_i H(p)=i=1npilogpi
    由此可见,熵越大,随机变量的不确定性就越大。从熵的定义可验证
    0 ≤ H ( p ) ≤ log ⁡ n 0 \leq H(p) \leq \log n 0H(p)logn
    当随机变量只取两个值,例如1,0时,即 X X X的分布为:
    P ( X = 1 ) = p , P ( X = 0 ) = 1 − p , 0 ≤ p ≤ 1 P(X = 1) = p,\quad P(X = 0) = 1-p, \quad 0≤p≤1 P(X=1)=p,P(X=0)=1p,0p1
    其熵为:
    H ( p ) = − p log ⁡ 2 p − ( 1 − p ) log ⁡ 2 ( 1 − p ) H(p) = -p \log_2 p - (1 - p)\log_2 (1 - p) H(p)=plog2p(1p)log2(1p)
    这时,熵 H ( p ) H(p) H(p)随概率 p p p变化的曲线如下图所示(单位为比特):
    熵的变化曲线
    p = 0 p = 0 p=0 p = 1 p = 1 p=1 H ( p ) = 0 H(p) = 0 H(p)=0,随机变量完全没有不确定,当 p = 0.5 p = 0.5 p=0.5时, H ( p ) = 1 H(p) = 1 H(p)=1,熵取值最大,随机变量不确定性最大。

    设有随机变量 ( X , Y ) (X, Y) (X,Y),其联合概率分布为:

    P ( X = x i , Y = y i ) = p i j { i = 1 , 2 , ⋯   , n j = 1 , 2 , ⋯   , m P(X = x_i, Y = y_i) = p_{ij} \quad \begin{cases} i = 1, 2, \cdots, n \\ j = 1, 2, \cdots, m \end{cases} P(X=xi,Y=yi)=pij{i=1,2,,nj=1,2,,m

    条件熵 H ( Y ∣ X ) H(Y|X) H(YX)表示在已知随机变量 X X X的条件下随机变量 Y Y Y的不确定性。随机变量 X X X给定的条件下随机变量 Y Y Y的条件熵(conditional entropy) H ( Y ∣ X ) H(Y|X) H(YX),定义为 X X X给定条件下 Y Y Y的条件概率分布的熵对 X X X的数学期望:
    H ( Y ∣ X ) = ∑ i = 1 n p i H ( Y ∣ X = x i ) H(Y|X) = \sum_{i = 1}^n p_iH(Y|X = x_i) H(YX)=i=1npiH(YX=xi)

    其中, p i = P ( X = x i ) , i = 1 , 2 , ⋯   , n p_i = P(X = x_i), i = 1, 2, \cdots, n pi=P(X=xi),i=1,2,,n

    当熵和条件熵中的概率由数据估计(如极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)。此时,如果有0概率,令 0 log ⁡ 0 = 0 0\log0 = 0 0log0=0

    信息增益(information gain)表示得知特征 X X X的信息而使得类 Y Y Y的信息的不确定性减少的程度。特征 a ∗ a_* a对训练数据集 D D D的信息增益 g ( D , a ∗ ) g(D, a_*) g(D,a),定义为集合 D D D的经验熵 H ( D ) H(D) H(D)与特征 a ∗ a_* a给定条件下 D D D的经验条件熵 H ( D ∣ a ∗ ) H(D|a_*) H(Da)之差,即:
    g ( D , a ∗ ) = H ( D ) − H ( D ∣ a ∗ ) g(D, a_*) = H(D) - H(D|a_*) g(D,a)=H(D)H(Da)
    一般地,熵 H ( Y ) H(Y) H(Y)与条件熵 H ( Y ∣ X ) H(Y|X) H(YX)之差称为互信息(mutual information)。决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

    决策树学习应用信息增益准则选择特征。给定训练数据集 D D D和特征 a ∗ a_* a,经验熵 H ( D ) H(D) H(D)表示对数据集 D D D进行分类的不确定性。而经验条件熵 H ( D ∣ a ∗ ) H(D|a_*) H(Da)表示在特征 a ∗ a_* a给定的条件下对数据集 D D D进行分类的不确定性。那么它们的差,即信息增益,就表示由于特征 a ∗ a_* a而使得对数据集 D D D的分类的不确定性减少的程度。显然,对于数据集 D D D而言,信息增益依赖于特征,不同的特征往往具有不同的信息增益,信息增益大的特征具有更强的分类能力。

    根据信息增益准则的特征选择方法:对训练数据集(或子集) D D D,计算其每个特征的信息增益,并比较它们的大小,选择信息增益最大的特征。

    设训练数据集为 D D D ∣ D ∣ |D| D表示其样本容量,即样本个数。设有 K K K个类 C k C_k Ck k = 1 , 2 , ⋯   , K k=1, 2, \cdots, K k=1,2,,K ∣ C k ∣ |C_k| Ck为属于类 C k C_k Ck的样本个数, ∑ k = 1 K ∣ C k ∣ = ∣ D ∣ \sum_{k=1}^K |C_k| = |D| k=1KCk=D。设特征 a ∗ a_* a V V V个不同的取值 { a ∗ 1 , a ∗ 2 , ⋯   , a ∗ V } \{ a_*^1, a_*^2, \cdots, a_*^V\} {a1,a2,,aV},根据特征 a ∗ a_* a的取值将 D D D划分为 V V V个子集 D 1 , D 2 , ⋯   , D V D_1, D_2, \cdots, D_V D1,D2,,DV ∣ D t ∣ |D_t| Dt D t D_t Dt的样本个数, ∑ i = 1 n ∣ D t ∣ = ∣ D ∣ \sum_{i=1}^n|D_t|=|D| i=1nDt=D。记子集 D i D_i Di中属于类 C k C_k Ck的样本的集合为 D i k D_{ik} Dik。即 D i k = D i ∩ C k D_{ik} = D_i \cap C_k Dik=DiCk ∣ D i k ∣ |D_{ik}| Dik D i k D_{ik} Dik的样本个数。于是计算信息增益的方法如下:

    信息增益
    输入:训练数据集 D D D和特征 a ∗ a_* a
    输出:特征 a ∗ a_* a对训练数据集 D D D的信息增益 g ( D , a ∗ ) g(D, a_*) g(D,a)
    1.计算数据集 D D D的经验熵 H ( D ) H(D) H(D) H ( D ) = − ∑ k = 1 K C k D log ⁡ 2 C k D H(D) = -\sum_{k=1}^K \frac{C_k}{D}\log_2\frac{C_k}{D} H(D)=k=1KDCklog2DCk
    2.计算特征 A A A对数据集 D D D的经验条件熵 H ( D ∣ A ) H(D|A) H(DA) H ( D ∣ A ) = ∑ i = 1 n ∣ D i ∣ D H ( D i ) = − ∑ i = 1 n ∣ D i ∣ D ∑ k = 1 K D i k D i log ⁡ 2 D i k D i H(D|A) = \sum_{i=1}^n\frac{|D_i|}{D}H(D_i)=-\sum_{i=1}^n\frac{|D_i|}{D}\sum_{k=1}^K\frac{D_{ik}}{D_i}\log_2\frac{D_{ik}}{D_i} H(DA)=i=1nDDiH(Di)=i=1nDDik=1KDiDiklog2DiDik
    3.计算信息增益: g ( D , a ∗ ) = H ( D ) − H ( D ∣ a ∗ ) g(D, a_*) = H(D) - H(D|a_*) g(D,a)=H(D)H(Da)

    一般而言,信息增益越大,则意味着使用特征 a ∗ a_* a来进行划分所获得的“纯度提升”越大。因此,我们可用信息增益来进行决策树的划分属性选择,即在上述决策树分类算法第10行使用 a ∗ = arg  max ⁡ a ∈ A g ( D , a ) a_* = \text{arg}\ \max_{a \in A}g(D, a) a=arg maxaAg(D,a)选择最优划分属性。著名的ID3决策树学习算法就是以信息增益为准则来选择划分属性。

    ID3算法的核心是在决策树各个结点上应用信息增益准则选择特征,递归地构建决策树。具体方法是:从根结点开始,对结点计算所有可能的特征的信息增益,选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子结点。之后,再对子结点递归地调用以上方法,构建决策树,直到所有特征的信息增益均很小或没有特征可以选择为止,最终得到一个决策树。ID3相当于用极大似然法进行概率模型的选择

    ID3算法
    输入:训练数据集 D D D,特征集 A A A,阈值 ϵ \epsilon ϵ
    输出:决策树 T T T
    1.若 D D D中所有实例属于同一类 C k C_k Ck,则 T T T为单结点树,并将类 C k C_k Ck作为该结点的类标记,返回决策树 T T T
    2.若 A = ∅ A = \varnothing A=,则 T T T为单结点树,并将 D D D中实例数最大的类 C k C_k Ck,作为该结点的类标记,返回决策树 T T T
    3.否则,计算 A A A中各特征对 D D D的信息增益,选择信息增益最大的特征 a ∗ a_* a
    4.如果 a ∗ a_* a的信息增益小于阈值 ϵ \epsilon ϵ,则置 T T T为单结点树,并将 D D D中实例数最大的类 C k C_k Ck作为该结点的类标记,返回决策树 T T T
    5.否则,对 a ∗ a_* a的每一可能值 a ∗ v a_*^v av,依 a ∗ = a ∗ v a_* = a_*^v a=av D D D分割为若干非空子集 D v D_v Dv,将 D v D_v Dv中实例数最大的类作为标记,构建子结点,由结点及其子结点构成决策树 T T T,返回决策树 T T T
    6.对第 v v v个子结点,以 D v D_v Dv为训练集,以 A − { a ∗ } A - \{a_*\} A{a}为特征集,递归地调用第(1)步~第(5)步,得到子树 T v T_v Tv,并返回子树 T v T_v Tv

    信息增益率

    信息增益值的大小是相对于训练数据集而言的,并没有绝对意义。在训练数据集的经验熵大的时候,信息增益值会偏大。反之,信息增益值会偏小。使用信息增益率(information gain ratio)可以对这一问题进行校正。这是特征选择的另一准则。特征 a ∗ a_* a对训练数据集 D D D的信息增益率 g g ( D , a ∗ ) g_g(D, a_*) gg(D,a)定义为其信息增益 g ( D , a ∗ ) g(D, a_*) g(D,a)与训练数据集 D D D的经验熵 H ( D ) H(D) H(D)之比:
    g g ( D , a ∗ ) = g ( D , a ∗ ) H ( D ) g_g(D, a_*) = \frac{g(D, a_*)}{H(D)} gg(D,a)=H(D)g(D,a)

    如前文所说,信息增益准则对可取值数目较多的属性有所偏好,为减少这种偏好可能带来的不利影响,著名的C4.5决策树算法不直接使用信息增益来选择划分属性,而是使用信息增益率来选择最优划分属性。

    C4.5算法
    输入:训练数据集 D D D,特征集 A A A,信息增益率阈值 ϵ \epsilon ϵ,信息增益阈值 α \alpha α
    输出:决策树 T T T
    1.若 D D D中所有实例属于同一类 C k C_k Ck,则 T T T为单结点树,并将类 C k C_k Ck作为该结点的类标记,返回决策树 T T T
    2.若 A = ∅ A = \varnothing A=,则 T T T为单结点树,并将 D D D中实例数最大的类 C k C_k Ck,作为该结点的类标记,返回决策树 T T T
    3.否则,计算 A A A中各特征对 D D D的信息增益和信息增益率,在信息增益大于 α \alpha α的特征中选择信息增益率最大的特征 a ∗ a_* a
    4.如果 a ∗ a_* a的信息增益率小于阈值 ϵ \epsilon ϵ,则置 T T T为单结点树,并将 D D D中实例数最大的类 C k C_k Ck作为该结点的类标记,返回决策树 T T T
    5.否则,对 a ∗ a_* a的每一可能值 a ∗ v a_*^v av,依 a ∗ = a ∗ v a_* = a_*^v a=av D D D分割为若干非空子集 D v D_v Dv,将 D v D_v Dv中实例数最大的类作为标记,构建子结点,由结点及其子结点构成决策树 T T T,返回决策树 T T T
    6.对第 v v v个子结点,以 D v D_v Dv为训练集,以 A − { a ∗ } A - \{a_*\} A{a}为特征集,递归地调用第(1)步~第(5)步,得到子树 T v T_v Tv,并返回子树 T v T_v Tv

    需注意的是,信息增益率准则对可取值数目较少的属性有所偏好,因此,C4.5算法并不是直接选择增益率最大的候选划分属性,而是使用了一个启发式的方法选择最优划分属性:先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的.。

    连续值处理

    实际的任务中常会遇到连续属性,对于全部为连续属性的样本来说,我们一般使用回归决策树来处理。C4.5算法则采用了二分法对连续属性进行处理。由于连续属性的可取值数目不再有限,因此,不能直接根据连续属性的可取值来对结点进行划分。此时,连续属性离散化技术可派上用场。最简单的策略是采用二分法对连续属性进行处理。

    给定样本集 D D D和连续属性 a a a,假定 a a a D D D上出现了 n n n个不同的取值,将这些值从小到大进行排序,记为 { a 1 , a 2 , a 3 , ⋯   , a n } \{a_1, a_2, a_3, \cdots, a_n\} {a1,a2,a3,,an}。基于划分点 t t t可将 D D D分为子集 D t + D_t^+ Dt+ D t − D_t^- Dt,其中 D t + D_t^+ Dt+包含那些在属性 a a a上取值大于 t t t的样本,而 D t − D_t^- Dt则包含那些在属性 a a a上取值不大于 t t t的样本。显然,对相邻的属性取值 a i a^i ai a i + 1 a^{i + 1} ai+1来说, t t t在区间 [ a i , a i + 1 ) [a^i, a^{i + 1}) [ai,ai+1)中取任意值所产生的划分结果相同.因此,对连续属性 a a a,我们可考察包含 n − 1 n-1 n1个元素的候选划分点集合:
    T a = { a i + a i + 1 2   ∣   1 ≤ i ≤ n − 1 } T_a = \{\frac{a^i + a^{i + 1}}{2} \ | \ 1 \leq i \leq n - 1\} Ta={2ai+ai+1  1in1}

    即把区间 [ a i , a i + 1 ) [a^i, a^{i + 1}) [ai,ai+1)的中位点 a i + a i + 1 2 \frac{a^i + a^{i + 1}}{2} 2ai+ai+1作为候选划分点。然后,我们就可像离散属性值一样来考察这些划分点,选取最优的划分点进行样本集合的划分:
    G a i n ( D , a ) = max ⁡ t ∈ T a G a i n ( D , a , t ) = max ⁡ t ∈ T a E n t ( D ) − ∑ λ ∈ { − , + } D t λ D E n t ( D t λ ) \begin{aligned} Gain(D, a) &= \max_{t \in T_a} Gain(D, a, t)\\ & = \max_{t \in T_a} Ent(D) - \sum_{\lambda \in \{-, +\}} \frac{D^\lambda _t}{D}Ent(D^\lambda _t) \end{aligned} Gain(D,a)=tTamaxGain(D,a,t)=tTamaxEnt(D)λ{,+}DDtλEnt(Dtλ)

    其中 G a i n ( D , a , t ) Gain(D, a, t) Gain(D,a,t)是样本集 D D D基于划分点 t t t二分后的信息增益。于是,我们就可选择使 G a i n ( D , a , t ) Gain(D, a, t) Gain(D,a,t)最大化的划分点。

    缺失值处理

    现实任务中常会遇到不完整样本,即样本的某些属性值缺失。且在属性数目较多的情况下,有时会有大量样本出现缺失值。如果简单地放弃不完整样本,仅使用无缺失值的样本来进行学习,显然是对数据信息极大的浪费。显然,有必要考虑利用有缺失属性值的训练样例来进行学习。

    划分属性的选择

    给定训练集 D D D和属性 a a a,令 D ~ \tilde{D} D~表示 D D D中在属性 a a a上没有缺失值的样本子集。显然,我们仅可根据 D ~ \tilde{D} D~来判断属性 a a a的优劣。假定属性 a a a V V V个可取值 { a 1 , a 2 , a 3 , ⋯   , a V } \{a^1, a^2, a^3, \cdots, a^V\} {a1,a2,a3,,aV},令 D ~ v \tilde{D}^v D~v表示 D ~ \tilde{D} D~中在属性 a a a上取值为 a v a^v av的样本子集, D ~ k \tilde{D}_k D~k表示 D ~ \tilde{D} D~中属于第 k k k ( k = 1 , 2 , 3 , ⋯   , K ) (k = 1, 2, 3, \cdots, K) (k=1,2,3,,K)的样本子集,则显然有 D ~ = ⋃ k = 1 K D ~ k \tilde{D} = \bigcup^K_{k = 1}\tilde{D}_k D~=k=1KD~k D ~ = ⋃ v = 1 V D ~ v \tilde{D} = \bigcup^V_{v = 1}\tilde{D}^v D~=v=1VD~v。假定我们为每个样本 x x x赋予一个权重 ω x \omega_x ωx,并定义:
    ρ = ∑ x ∈ D ~ ω x ∑ x ∈ D ω x p ~ k = ∑ x ∈ D ~ k ω x ∑ x ∈ D ~ ω x r ~ v = ∑ x ∈ D ~ v ω x ∑ x ∈ D ~ ω x \begin{aligned} \rho & = \frac{\sum_{x \in \tilde{D}}\omega_x}{\sum_{x \in D}\omega_x}\\ \tilde{p}_k & = \frac{\sum_{x \in \tilde{D}_k}\omega_x}{\sum_{x \in \tilde{D}}\omega_x}\\ \tilde{r}_v & = \frac{\sum_{x \in \tilde{D}^v}\omega_x}{\sum_{x \in \tilde{D}}\omega_x} \end{aligned} ρp~kr~v=xDωxxD~ωx=xD~ωxxD~kωx=xD~ωxxD~vωx

    直观地看,对于属性 a a a ρ \rho ρ表示无缺失值样本所占的比例, p ~ k \tilde{p}_k p~k表示无缺失值样本中第 k k k类所占的比例, r ~ v \tilde{r}_v r~v则表示无缺失值样本中在属性 a a a上取值 a v a^v av的样本所占的比例。基于上述定义,我们可将信息增益的计算式推广为:
    G a i n ( D , a ) = ρ × G a i n ( D ~ , a ) = ρ × ( E n t ( D ~ ) − ∑ x = 1 V r ~ v E n t ( D ~ v ) ) \begin{aligned} Gain(D, a) &= \rho \times Gain(\tilde{D}, a)\\ & = \rho \times (Ent(\tilde{D}) - \sum_{x = 1}^V \tilde{r}_v Ent(\tilde{D}^v)) \end{aligned} Gain(D,a)=ρ×Gain(D~,a)=ρ×(Ent(D~)x=1Vr~vEnt(D~v))

    对样本进行划分

    根据上面的定义,若样本 x x x在划分属性 a a a上的取值已知,则将 x x x划入与其取值对应的子结点,且样本权值在子结点中保持为 ω x \omega_x ωx。若样本 x x x在划分属性 a a a上的取值未知,则将 x x x同时划入所有子结点,且样本权值在与属性值 a v a^v av对应的子结点中调整为 r ~ v × ω x \tilde{r}_v \times \omega_x r~v×ωx。直观地看,这就是让同一个样本以不同的概率划入到不同的子结点中去。

    基尼指数

    数据集 D D D的纯度还可用基尼值来度量:
    G i n i ( D ) = ∑ k = 1 K p k ( 1 − p k ) = 1 − ∑ k = 1 K p k 2 Gini(D) = \sum^K_{k=1}p_k(1 - p_k) = 1 - \sum^K_{k=1}p_k^2 Gini(D)=k=1Kpk(1pk)=1k=1Kpk2

    其中, K K K为类别数, p k p_k pk为样本点属于第 k k k类的概率。对于二类分类问题,若样本点属于第1个类的概率是 p p p,则概率分布的基尼指数为:
    G i n i ( D ) = 2 p ( 1 − p ) Gini(D) = 2p(1 - p) Gini(D)=2p(1p)

    直观来说, G i n i ( D ) Gini(D) Gini(D)反映了从数据集 D D D中随机抽取两个样本,其类别标记不一致的概率。因此, G i n i ( D ) Gini(D) Gini(D)越小,则数据集 D D D的纯度越高。对于属性 a a a的基尼指数定义为:
    G i n i _ i n d e x ( D , a ) = ∑ v = 1 V D v D G i n i ( D v ) Gini\_index(D, a) = \sum^V_{v = 1}\frac{D^v}{D}Gini(D^v) Gini_index(D,a)=v=1VDDvGini(Dv)

    CART算法中,我们在候选属性集合 A A A中,选择那个使得划分后基尼指数最小的属性作为最优划分属性,即: a ∗ = arg min ⁡ a ∈ A G i n i _ i n d e x ( D , a ) a_* = \text{arg}\min_{a \in A}Gini\_index(D, a) a=argminaAGini_index(D,a)

    在二类分类问题中,基尼指数 G i n i ( D ) Gini(D) Gini(D)、熵 H ( p ) H(p) H(p)的一半,和分类误差率的关系:
    特征选择方法对比
    其中,横坐标表示概率 p p p,纵坐标表示损失。可以看出基尼指数和熵的一半的曲线很接近,都可以近似地代表分类误差率。

    分类树的剪枝

    剪枝(pruning)是决策树学习算法对付“过拟合”的主要手段。在决策树学习中,为了尽可能正确分类训练样本,结点划分过程将不断重复,有时会造成决策树分支过多,这时就可能因为对训练样本学习得“太好”了,以致于把训练集自身的一些特点当作所有数据都具有的一般性质而导致过拟合。因此,可通过主动去掉一些分支来降低过拟合的风险。决策树剪枝的基本策略有预剪枝后剪枝

    预剪枝

    预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点。停止决策树生长常用方法:

    1. 定义一个高度,当决策树达到该高度时就停止决策树的生长
    2. 达到某个节点的实例具有相同的特征向量,即使这些实例不属于同一类,也可以停止决策树的生长。这个方法对于处理数据的数据冲突问题比较有效。
    3. 定义一个阈值,当达到某个节点的实例个数小于阈值时就可以停止决策树的生长
    4. 定义一个阈值,通过计算每次扩张对系统性能的增益,并比较增益值与该阈值大小来决定是否停止决策树的生长。

    后剪枝

    后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点。相比于预剪枝,后剪枝更常用,因为在预剪枝中精确地估计何时停止树增长很困难。

    错误率降低剪枝(REP,Reduced-Error Pruning)

    错误率降低剪枝方法是一种比较简单的后剪枝的方法。在该方法中,可用的数据被分成两个样例集合:首先是训练集,它被用来形成学习到的决策树,另一个是与训练集分离的验证集,它被用来评估这个决策树在后续数据上的精度,确切地说是用来评估修剪这个决策树的影响。学习器可能会被训练集中的随机错误和巧合规律所误导,但验证集合不大可能表现出同样的随机波动。所以验证集可以用来对过度拟合训练集中的虚假特征提供防护检验。

    错误率降低剪枝方法考将树上的每个节点作为修剪的候选对象,再决定是对该节点进行剪枝:

    1. 删除以此结点为根的子树
    2. 使其成为叶子结点
    3. 当修剪后的树对于验证集合的性能不比修剪前的树的性能差时,则确认删除该结点,否则恢复该节点

    因为训练集合的过拟合,使得验证集合数据能够对其进行修正,反复进行上面的操作,从底向上的处理结点,删除那些能够提高验证集合的精度的结点,直到进一步修剪会降低验证集合的精度为止。

    错误率降低剪枝方法是最简单的后剪枝方法之一,不过由于使用独立的测试集,原始决策树相比,修改后的决策树可能偏向于过度修剪。这是因为一些不会再次在测试集中出现的很稀少的训练集实例所对应的分枝在剪枝过程中往往会被剪枝。尽管错误率降低剪枝方法有这个缺点,不过错误率降低剪枝方法仍然作为一种基准来评价其它剪枝算法的性能。它对于两阶段决策树学习方法的优点和缺点提供了一个很好的学习思路。由于验证集合没有参与决策树的构建,所以用错误率降低剪枝方法剪枝后的决策树对于测试样例的偏差要好很多,能够解决一定程度的过拟合问题。

    悲观错误剪枝(PEP,Pesimistic-Error Pruning)

    悲观错误剪枝方法是根据剪枝前后的错误率来判定子树的修剪。它不需要像错误率降低修剪方法那样,需要使用部分样本作为测试数据,而是完全使用训练数据来生成决策树,并进行剪枝,即决策树生成和剪枝都使用训练集

    该方法引入了统计学中连续修正的概念弥补错误率降低剪枝方法中的缺陷,在评价子树的训练错误公式中添加了一个常数,即假定每个叶子结点都自动对实例的某个部分进行错误的分类。

    把一颗具有多个叶子节点的子树的分类用一个叶子节点来替代的话,在训练集上的误判率肯定是上升的,但是在新数据上不一定。于是我们把子树的误判计算加上一个经验性的惩罚因子来做是否剪枝的考量指标。对于一个叶子节点,它覆盖了 N N N个样本,其中有 E E E个错误,那么该叶子节点的错误率为 E + 0.5 N \frac{E + 0.5}{N} NE+0.5。这个 0.5 0.5 0.5就是惩罚因子,那么一颗子树,它有 L L L个叶子节点,那么该子树的误判率估计为:
    ∑ E i + 0.5 ∗ L ∑ N i \frac{\sum E_i +0.5 * L}{\sum N_i} NiEi+0.5L

    这样的话,我们可以看到一棵子树虽然具有多个子节点,但由于加上了惩罚因子,所以子树的误判率计算未必占到便宜。剪枝后内部节点变成了叶子节点,其误判个数 E E E也需要加上一个惩罚因子,变成 E + 0.5 E+0.5 E+0.5,那么子树是否可以被剪枝就取决于剪枝后的错误 E + 0.5 E+0.5 E+0.5在的标准误差内。对于样本的误差率 e e e,我们可以根据经验把它估计成各种各样的分布模型,比如二项式分布、正态分布等。如果 E + 0.5 < E i + S E ( E i ) E+0.5 < E_i + SE(E_i) E+0.5<Ei+SE(Ei)则对 i i i进行剪枝。

    代价复杂度剪枝(CCP,Cost-Complexity Pruning)

    代价复杂度剪枝算法为子树 T t T_t Tt定义了代价和复杂度,以及一个可由用户设置的衡量代价与复杂度之间关系的参数 α α α。其中,代价指在剪枝过程中因子树 T t T_t Tt被叶节点替代而增加的错分样本,复杂度表示剪枝后子树 T t T_t Tt减少的叶结点数, α α α则表示剪枝后树的复杂度降低程度与代价间的关系,定义为:
    α = R ( t ) − R ( T t ) ∣ N t ∣ − 1 \alpha = \frac{R(t) - R(T_t)}{|N_t| - 1} α=Nt1R(t)R(Tt)

    其中, ∣ N t ∣ |N_t| Nt是子树 T t T_t Tt中的叶节点数, R ( t ) = r ( t ) ∗ p ( t ) R(t) = r(t) * p(t) R(t)=r(t)p(t)为结点 t t t的错误代价, r ( t ) r(t) r(t)为结点 t t t的错分样本率, p ( t ) p(t) p(t)为落入结点 t t t的样本占所有样本的比例, R ( T t ) = ∑ R ( i ) R(T_t) = \sum R(i) R(Tt)=R(i)是子树 T t T_t Tt错误代价, i i i为子树 T t T_t Tt的叶节点。

    1. 对于完全决策树 T T T的每个非叶结点计算 α α α值,循环剪掉具有最小 α α α值的子树,直到剩下根节点,得到一系列的剪枝树 { T 0 , T ‘ 1 , T 2 , ⋯   , T m } \{ T_0, T_`1, T_2, \cdots, T_m \} {T0,T1,T2,,Tm},其中 T 0 T_0 T0为原有的完全决策树, T m T_m Tm为根结点, T i + 1 T_{i +1} Ti+1为对 T i T_i Ti进行剪枝的结果
    2. 从子树序列中,根据真实的误差估计选择最佳决策树
    REPPEPCCP
    剪枝方式自底向上自顶向下自底向上
    计算复杂度 O ( n ) O(n) O(n) O ( n ) O(n) O(n) O ( n 2 ) O(n^2) O(n2)
    误差估计测试集上误差估计使用连续纠正标准误差

    回归树

    建立回归树的过程大致可以分为两步:

    1. 将预测变量空间( X 1 , X 2 , X 3 , ⋯   , X p X_1, X_2, X_3, \cdots, X_p X1,X2,X3,,Xp)的可能取值构成的集合分割成 J J J个互不重叠的区域 { R 1 , R 2 , R 3 , ⋯   , R J } \{ R_1, R_2, R_3, \cdots, R_J\} {R1,R2,R3,,RJ}
    2. 对落入区域 R j R_j Rj的每个观测值作同样的预测,预测值等于 R j R_j Rj上训练集的各个样本取值的算术平均数。

    比如,在第一步中得到两个区域 R 1 R_1 R1 R 2 R_2 R2 R 1 R_1 R1中训练集的各个样本取值的算术平均数为10, R 2 R_2 R2中训练集的各个样本取值的算术平均数为20。则对给定的观测值 X = x X = x X=x,若 x ∈ R 1 x \in R_1 xR1,给出的预测值为10,若 x ∈ R 2 x \in R_2 xR2,则预测值为20。

    所以,类似于上述决策树分类算法的第(10)步,关键在于如何构建区域划分 { R 1 , R 2 , R 3 , ⋯   , R J } \{ R_1, R_2, R_3, \cdots, R_J\} {R1,R2,R3,,RJ}。事实上,区域的形状是可以为任意形状的,但出于模型简化和增强可解释性的考虑,这里将预测变量空间划分成高维矩形,我们称这些区域为称盒子。划分区域的目标是找到使模型的残差平方和 R S S RSS RSS最小的矩形区域 { R 1 , R 2 , R 3 , ⋯   , R J } \{ R_1, R_2, R_3, \cdots, R_J\} {R1,R2,R3,,RJ} R S S RSS RSS的定义为:
    R S S = ∑ j = 1 J ∑ i ∈ R j ( y i − y ^ R j ) 2 RSS = \sum^J_{j=1} \sum_{i \in R_j}(y_i - \hat{y}_{R_j})^2 RSS=j=1JiRj(yiy^Rj)2

    其中, y ^ R j \hat{y}_{R_j} y^Rj是第 j j j个矩形区域中训练集中各个样本取值的算术平均数。但是,要想考虑将特征空间划分为 J J J个矩形区域的所有可能性,在计算上是不可行的。因此一般采用一种自上而下的贪婪法:递归二又分裂。“自上而下”指的是它从树顶端开始依次分裂预测变量空间,每个分裂点都产生两个新的分支。“贪婪”意指在建立树的每一步中,最优分裂确定仅限于某一步进程,而不是针对全局去选择那些能够在未来进程中构建出更好的树的分裂点。

    在执行递归二又分裂时,先选择预测变量 X j X_j Xj和分割点 s s s,将预测变量空间分为两个区域 { X ∣ X j < s } \{ X|X_j <s \} {XXj<s} { X ∣ X j ≥ s } \{ X|X_j \geq s \} {XXjs},使 R S S RSS RSS尽可能地减小。也就是说,考虑所有预测变量 X 1 , X 2 , X 3 , ⋯   , X p X_1, X_2, X_3, \cdots, X_p X1,X2,X3,,Xp和与每个预测变量对应的 s s s的取值,然后选择预测变量和分割点,使构造出的树具有最小的 R S S RSS RSS。更详细地,对 j j j s s s,定义一对半平面:
    R 1 ( j , s ) = { X ∣ X j < s } 和 R 2 ( j , s ) = { X ∣ X j ≥ s } R_1(j, s) = \{ X|X_j <s \} \quad \text{和} \quad R_2(j, s) = \{ X|X_j \geq s \} R1(j,s)={XXj<s}R2(j,s)={XXjs}

    寻找 j j j s s s,使得下式最小:
    ∑ x i ∈ R 1 ( j , s ) ( y i − y ^ R 1 ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − y ^ R 2 ) 2 \sum_{x_i \in R_1(j, s)}(y_i - \hat{y}_{R_1})^2 + \sum_{x_i \in R_2(j, s)}(y_i - \hat{y}_{R_2})^2 xiR1(j,s)(yiy^R1)2+xiR2(j,s)(yiy^R2)2

    重复上述步骤,寻找继续分割数据集的最优预测变量和最优分割点,使随之产生的区域中的 R S S RSS RSS达到最小。此时被分割的不再是整个预测变量空间,而是之前确定的两个区域之一。如此一来就能得到3个区域。接着进一步分割3个区域之一以最小化 R S S RSS RSS。这一过程不断持续,直到符合某个停止准则,如我们在分类决策树中讨论到的前剪枝中的停止准则。

    区域 { R 1 , R 2 , R 3 , ⋯   , R J } \{ R_1, R_2, R_3, \cdots, R_J\} {R1,R2,R3,,RJ}产生后,就可以确定某一给定的测试数据所属的区域,并用这一区域训练集的各个样本取值的算术平均数作为与测试进行预测。

    f回归树实例

    回归树的剪枝

    上述方法生成的回归树会在训练集中取得良好的预测效果,却很有可能造成数据的过拟合,导致在测试集上效果不佳。原因在于这种方法产生的树可能过于复杂。一棵分裂点更少、规模更小(区域 { R 1 , R 2 , R 3 , ⋯   , R J } \{ R_1, R_2, R_3, \cdots, R_J\} {R1,R2,R3,,RJ}的个数更少)的树会有更小的方差和更好的可解释性(以增加微小偏差为代价)。针对上述问题,一种可能的解决办法是:仅当分裂使残差平方和 R S S RSS RSS的减小量超过某阈值时,才分裂树结点。这种策略能生成较小的树,但可能产生过于短视的问题,一些起初看来不值得的分裂却可能之后产生非常好的分裂。也就是说在下一步中, R S S RSS RSS会大幅减小。

    因此,更好的策略是生成一棵很大的树 T 0 T_0 T0,然后通过后剪枝得到子树。直观上看,剪枝的目的是选出使测试集预测误差最小的子树。子树的测试误差可以通过交叉验证或验证集来估计。但由于可能的子树数量极其庞大,对每一棵子树都用交叉验证来估计误差太过复杂。因此需要从所有可能的子树中选出一小部分再进行考虑。在回归树中,我们一般使用代价复杂度剪枝(CCP,Cost-Complexity Pruning),也称最弱联系剪枝(Weakest Link Pruning)。这种方法不是考虑每一棵可能的子树,而是考虑以非负调整参数 α \alpha α标记的一系列子树。每一个 α \alpha α的取值对应一棵子树 T ∈ T 0 T \in T_0 TT0,当 α \alpha α一定时,其对应的子树使下式最小:
    ∑ m = 1 ∣ T ∣ ∑ x i ∈ R m ( y i − y ^ R m ) 2 + α ∣ T ∣ \sum_{m=1}^{|T|} \sum_{x_i \in R_m}(y_i - \hat{y}_{R_m})^2 + \alpha |T| m=1TxiRm(yiy^Rm)2+αT

    这里的 ∣ T ∣ |T| T表示树 T T T的结点数, R m R_m Rm是第 m m m个终端结点对应的矩形(预测向量空间的一个子集), y ^ R m \hat{y}_{R_m} y^Rm是与 R m R_m Rm对应的预测值,也就是 R m R_m Rm中训练集的平均值。调整系数 α \alpha α在子树的复杂性和与训练数据的契合度之间控制权衡。当 α = 0 \alpha = 0 α=0时,子树 T T T等于原树 T 0 T_0 T0,因为此时上式只衡量了训练误差。而当 α \alpha α增大时,终端结点数多的树将为它的复杂付出代价,所以使上式取到最小值的子树会变得更小。

    α \alpha α从0开始逐渐增加时,树枝以一种嵌套的、可预测的模式被修剪,因此获得与 α \alpha α对应的所有子树序列是很容易的。可以用交又验证或验证集确定 α \alpha α,然后在整个数据集中找到与之对应的子树:

    回归决策树算法
    1.利用递归二叉分裂在训练集中生成一额大树,只有当终端结点包含的观测值个数低于某个最小值时才停止。
    2.对大树进行代价复杂性剪枝,得到一系列最优子树,子树是 α \alpha α的函数。
    3.利用 K K K折交叉验诞选择 α \alpha α。具体做法是将训练集分为 K K K折。对所有 k = 1 , 2 , 3 , ⋯   , K k=1, 2, 3, \cdots, K k=1,2,3,,K,对训练集上所有不属于第 k k k折的数据重复第(1)步~第(2)步得到与 α \alpha α对应的子树,并求出上述子树在第 k k k折上的均方预测误差。
    4.每个 α \alpha α会有相应的 K K K个均方预测误差,对这 K K K个值求平均,选出使平均误差最小的 α \alpha α
    5.找出选定的 α \alpha α在第(2)步中对应的子树。

    决策树的基础即是上文所述的分类决策树与回归决策树,其预测准确性一般比回归和分类方法弱,但可以通过用集成学习方法组合大量决策树,显著提升树的预测效果,这些方法我将会在接下来的文章中继续阐述,欢迎关注学习讨论!

    展开全文
  • 举例讲清楚模型树和回归树的区别

    千次阅读 2018-12-09 21:31:35
    对于节点A而言,模型树的估计离主曲线更远,此时选择回归树(预测值为蓝色点)更加合适。 对于节点B而言,回归树由于取均值,导致B的预测值是蓝色点,离主曲线太远,此时选用模型树更加合适 ...
  • 树模型实在是个庞大的家族,里面有许多细节值得注意,怕自己遗忘,写一期总结方便以后查询。先介绍三种划分方式: 信息增益: 计算数据集D中的经验熵H(D): 计算特征A对数据集D的经验条件H(D/A): 计算休息增益...
  • Classification And Regression Tree(CART)是一种很重要的机器学习算法,既可以用于创建分类树(Classification Tree),也可以用于创建回归树(Regression Tree),本文介绍了CART用于离散标签分类决策和连续特征...
  • 回归树过程:例:有10名学生,他们的身高分布如下: R1: 女生(7):156,167,165,163,160,170,160 R2: 男生(3):172,180,176 那么,落入R1的样本均值为163,落入R2的样本均值为176,那么对于新样本...
  • R语言中回归树预测模型及其评估

    千次阅读 2018-05-02 11:51:15
    使用回归树预测模型的优点是可以处理缺失值问题,首先需要先加载rpart包。回归树自动筛选某些相关的变量,所以不是所有的变量都会在树中出现。回归树的建立分为2步:1.生成一颗较大的树。然后删除一些底层节点来进行...
  • 树模型(二):分类回归树

    千次阅读 2016-07-22 15:57:41
    算法描述(1)最小二乘回归树生成算法(2)CART生成算法 其中,5.25如下1.计算给定数据集的香农熵def calcShannonEnt(dataSet): numEntries = len(dataSet) labelCounts = {} for featVec in dataSet:
  • 本文是一个简短的教程,在R中拟合BRT(提升回归树模型。我们的目标是使BRT(提升回归树模型应用于生态学数据,并解释结果。 本教程的目的是帮助你学习如何在R中开发一个BRT模型。 示例数据 有两套短鳍鳗的...
  • 机器学习理论与实战(九)回归树模型

    万次阅读 热门讨论 2013-07-27 00:29:21
    前一节的回归是一种全局回归模型,它设定了一个模型,不管是线性还是非线性的模型,然后拟合数据得到参数,现实中会有些数据很复杂,肉眼...先来看看分类回归树吧(CART:Classification And Regression Trees),这个模
  • HubPredictor 是运行贝叶斯加性回归树 (BART) 模型的 R 函数,用于使用组蛋白标记信息预测染色质相互作用中心。 HubPredictor 还可用于预测拓扑关联域 (TAD) 边界。 系统要求 HubPredictor 是用 R 语言编写的。 它...
  • 机器学习模型-CART(回归树)

    千次阅读 2019-01-06 14:44:22
    决策树Decision Tree(Based on CART) (一)函数模块         (二)函数调用 ...注: 为防止树模型过拟合,采用了三种方式来处理: (1)控制叶子结点上样本的最少数量 (2)预剪枝 (3)后剪枝  ...
  • CART回归树&模型树 生成 剪枝 in Python

    千次阅读 2015-12-11 08:57:50
    回归树算法 CART和模型树 生成 剪枝 in Python
  • 回归树算法原理及实现

    千次阅读 2020-05-23 17:00:00
    作者:归辰 来源:海边的拾遗者由于现实中的很多问题是非线性的,当处理这类复杂的数据的回归问题时,特征之间的关系并不是简单的线性关系,此时,不可能利用全局的线性回归模型拟...
  • 回归模型-评估指标

    千次阅读 2018-06-02 21:22:04
    是指线性回归模型中的 解释变量(X)之间 由于存在高度相关关系而使模型估计失真或难以估计准确 二、多元线性回归模型 三、多重共线性概念 如何发现多重共线性 对X变量探索两两之间的相关性(相关矩阵) ...
  • 回归树预测

    千次阅读 2017-07-05 17:01:53
    本文不具体介绍回归树的具体算法,采用波士顿房价预测的案例来使用回归树模型。语言是Python3.6,集成环境是Anaconda3。 #导入数据 from sklearn.datasets import load_boston boston=load_boston() print(boston....
  • 本文记录一下关于CART的相关知识其中包括(回归树、树的后剪枝、模型树、树回归模型的预测(树回归模型的评估))。在之前学习完ID3算法有记录一篇相关的学习笔记,所以后面学习CART算法能有一个比较和熟悉的理解。 ...
  • 梯度提升回归树是另一种集成方法,通过合并多个决策树来构建一个更为强大的模型。 虽然名字中含有“回归”,但这个模型既可以用于回归也可以用于分类 。与随机森林方法不同,梯度提升采用连续的方式构造树,每颗树都...
  • 分类回归树与随机森林分类回归树与随机森林分类回归树与随机森林
  • 梯度提升回归树(GBDT)

    万次阅读 2018-08-30 13:22:26
    1.梯度提升回归树是一种从它的错误中进行学习的技术。它本质上就是集思广益,集成一堆较差的学习算法进行学习。 2.GBDT是基于Boosting思想的,Adaboosting是最著名的Boosting算法,其基本思想是使用多个弱分类器来...
  • 机器学习经典算法详解及Python实现–CART分类决策树、回归树模型树 摘要: Classification And Regression Tree(CART)是一种很重要的机器学习算法,既可以用于创建分类树(Classification Tree),也可以用于...
  • 参考:七月在线机器学习第九期决策树,西瓜书 ...回归树: bagging思想: 决策树优缺点: 参考: 决策树(Deecisioon Tree model) 总体概括: 逻辑回归过渡到决策树: 对于相亲问题,有很多中就解决方案,用...
  • 版权声明:本文为博主原创文章,未经博主允许不得转载https://blog.csdn.net/pxhdky/article/details/84203421 在上一篇博客【机器学习】决策树详解(ID3、C4.5)中,我们详细描述了...分类与回归树(Classifica...
  • How do decision trees for regression work?决策树模型既可以求解分类问题(对应的就是 ...一般市面上介绍决策树模型的书及相关的教学视频,通常只关注决策树在分类问题上的求解,而一笔带过对回归树的介绍。
  • 这种方法将经典回归树扩展到面板结构化数据,并允许在叶子中拟合更复杂的模型。 该树的生长方式与经典回归树相同,即通过最小化方差。 关于正常回归树的主要区别在于,我们必须确保每个“个体”在每个节点中至少有...
  • 1、连续和离散型特征的的构建: 用字典来存储的数据结构,包含4个元素: a)待切分的特征 b)待切分的特征值 c)右子。当不再需要切分的时候,也可以是单个值。 d)左子树。与右子类似。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 66,216
精华内容 26,486
关键字:

回归树模型