精华内容
下载资源
问答
  • 决策树算法    朴素贝叶斯要求特征相互独立,只能处理文本这种,更好的分类要用到决策树,决策树后面还有更更好的随机森林属于集成学习 可以解决很多的事情 文章目录决策树算法学完决策树算法,您应该掌握4.1 决策...

    决策树算法

       朴素贝叶斯要求特征相互独立,只能处理文本这种,更好的分类要用到决策树,决策树后面还有更更好的随机森林属于集成学习 可以解决很多的事情

    学完决策树算法,您应该掌握

    • 掌握决策树实现过程
    • 知道信息熵的公式以及作用
    • 知道信息增益的作用
    • 知道信息增益率的作用
    • 知道基尼指数则作用
    • 知道id3,c4.5,cart算法的区别
    • 了解cart剪枝的作用
    • 应用DecisionTreeClassifier实现决策树分类

    一、决策树算法简介

    在这里插入图片描述
    决策树+集成学习 可以解决很多的事情

    决策树适合处理金融数据(结构化数据如用户信息历史记录)

    用户评分、风险用户的识别

    决策树可以解决分类、回归都可以做,模型复杂度大,容易过拟合。会用到分类树和回归树

    决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-else结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法

    决策树:是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果,本质是一颗由多个判断节点组成的树本质是一颗由多个判断节点组成的树

    怎么理解这句话?通过一个对话例子

    为什么先问年龄?因为年龄女生觉得最重要

    年龄这个特征对目标值最重要

    左子树里面,长相最重要

    根节点:寻找对目标值影响最重要的特征和特征的划分方式
    在这里插入图片描述

    想一想这个女生为什么把年龄放在最上面判断!!!!!!!!!

    上面案例是女生通过定性的主观意识,把年龄放到最上面,那么如果需要对这一过程进行量化,该如何处理呢?

    此时需要用到信息论中的知识:信息熵,信息增益

    展开全文
  • 决策树算法梳理

    2019-04-03 22:45:30
    决策树算法
    1. 信息论基础
      熵、联合熵、条件熵、信息增益、基尼不纯度
      熵:熵的本质是一个系统“内在的混乱程度”
      在这里插入图片描述
      联合熵:联合熵是一集变量之间不确定性的衡量手段。

    条件熵:
    在这里插入图片描述
    信息增益:

    在这里插入图片描述
    基尼不纯度:基尼不纯度,是指将来自集合中的某种结果随机应用在集合中,某一数据项的预期误差率。是在进行决策树编程 的时候,对于混杂程度的预测中,一种度量方式。其公式为:IG(f)=∑i=1mfi(1−fi)=∑i=1mfi−∑i=1mf2i=1−∑i=1mf2i

    2.决策树算法(ID3、C4.5、CART分类树)原理及应用场景
    ID3:
    ID3算法的核心思想即在决策树的各个节点上使用信息增益选择特征。从根节点开始,计算所有特征的信息增益,选择信息增益最大的特征作为节点特征,再根据该特征的取值建立子节点,对子节点递归调用上述过程
    输入:训练数据集D,特征A,阈值beta :
    输出:决策树T

    1)若D中所有实例属于同一类Ck则T为单节点树,并将Ck作为该节点的类标记,返回T
    2)若A为空集,则通过统计D中实例数最大的类作为该节点类标记(即对于某一节点而言,没有其它特征可以进行分辨了,则对将该节点的类设置为分到该节点数据最多属于的类中),返回T
    3)否则计算A中各特征对D的信息增益,选择信息增益最大的特征 Ag :
    在这里插入图片描述
    信息增益:g(D,A)=H(D)−H(D|A)
    4)若Ag的信息增益小于阈值,则将T作为单节点树,将D中实例数最大的类作为该节点的标记
    5)否则,对Ag每一个可能值 ai 将D划分为若干非空子集,将子集中实例数最大的类作为标记,构建子节点,返回树T
    6)对第i个子节点,以(5)中的子集作为训练集,A-Ag
    作为特征集,递归调用(1)~(5),构建决策树

    C4.5:
    信息增益与训练数据集D关于特征A的值的熵之比:
    gr(D,A)=g(D,A)HA(D)
    gr(D,A)=g(D,A)HA(D)

    其中:
    HA(D)=∑|Di||D|log(|Di||D|)
    HA(D)=∑|Di||D|log(|Di||D|)

    C4.5算法即是将ID3算法中选择特征的标准用信息增益比代替

    CART分类树:
    CART假设决策树是二叉树,内部结点特征的取值为“是”和“否”,左分支是取值为“是”的分支,右分支是取值为“否”的分支。这样的决策树等价于递归地二分每个特征,将输入空间即特征空间划分为有限个单元,并在这些单元上确定预测的概率分布,也就是在输入给定的条件下输出的条件概率分布。

    CART算法由以下两步组成:
    决策树生成:基于训练数据集生成决策树,生成的决策树要尽量大;
    决策树剪枝:用验证数据集对已生成的树进行剪枝并选择最优子树,这时损失函数最小作为剪枝的标准。
    CART决策树的生成就是递归地构建二叉决策树的过程。CART决策树既可以用于分类也可以用于回归。本文我们仅讨论用于分类的CART。对分类树而言,CART用Gini系数最小化准则来进行特征选择,生成二叉树。

    CART生成算法如下:
    输入:训练数据集D,停止计算的条件:
    输出:CART决策树

    根据训练数据集,从根结点开始,递归地对每个结点进行以下操作,构建二叉决策树:
    设结点的训练数据集为D,计算现有特征对该数据集的Gini系数。此时,对每一个特征A,对其可能取的每个值a,根据样本点对A=a的测试为“是”或 “否”将D分割成D1和D2两部分,计算A=a时的Gini系数。
    在所有可能的特征A以及它们所有可能的切分点a中,选择Gini系数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点,从现结点生成两个子结点,将训练数据集依特征分配到两个子结点中去。
    对两个子结点递归地调用步骤l~2,直至满足停止条件。
    生成CART决策树。
    算法停止计算的条件是结点中的样本个数小于预定阈值,或样本集的Gini系数小于预定阈值(样本基本属于同一类),或者没有更多特征。

    3.回归树原理

    4.决策树防止过拟合手段

    产生原因1:样本问题
    (1)样本里的噪音数据干扰过大,大到模型过分记住了噪音特征,反而忽略了真实的输入输出间的关系;(什么是噪音数据?)
    (2)样本抽取错误,包括(但不限于)样本数量太少,抽样方法错误,抽样时没有足够正确考虑业务场景或业务特点,等等导致抽出的样本数据不能有效足够代表业务逻辑或业务场景;
    (3)建模时使用了样本中太多无关的输入变量。
    针对原因1的解决方法:
    合理、有效地抽样,用相对能够反映业务逻辑的训练集去产生决策树;

    原因2:构建决策树的方法问题
    在决策树模型搭建中,我们使用的算法对于决策树的生长没有合理的限制和修剪的话,决策树的自由生长有可能每片叶子里只包含单纯的事件数据或非事件数据,可以想象,这种决策树当然可以完美匹配(拟合)训练数据,但是一旦应用到新的业务真实数据时,效果是一塌糊涂。
    上面的原因都是现象,但是其本质只有一个,那就是“业务逻辑理解错误造成的”,无论是抽样,还是噪音,还是决策树等等,如果我们对于业务背景和业务知识非常了解,非常透彻的话,一定是可以避免绝大多数过拟合现象产生的。因为在模型从确定需求,到思路讨论,到搭建,到业务应用验证,各个环节都是可以用业务敏感来防止过拟合于未然的。
    针对原因2的解决方法(主要):
    剪枝:提前停止树的增长或者对已经生成的树按照一定的规则进行后剪枝。

    5.模型评估
    分类树模型:采用通用的分类模型评估指标
    Accuracy
    Precision
    Recall
    F1-score
    ROC曲线和AUC
    PR曲线

    回归树模型:采用通用的回归模型评估指标
    MSE
    MAE
    R^2

    6.sklearns参数详解
    criterion
    默认基尼系数,写’entropy’使用信息增益。
    一般,数据维度大、噪音大的时候,用基尼系数;感觉模型拟合程度不够的时候,用信息熵。

    random_state
    整数,随机数种子,确定之后不管运行多少次这个树不会变。

    splitter
    默认"best",可以改成"random",树就会更大。

    一开始就设置random_state和splitter,防止模型过拟合。

    以下参数用于剪枝,防止过拟合的关键:
    max_depth
    最大深度,最常用的参数,适用于高纬度样本量较少。一般可以从3开始试。
    min_samples_split
    一个节点想再往下分,需要包含的最少样本数。
    整数,就是最小数目;浮点数,分完每个节点样本数的最小比例。

    属性
    feature_importances_
    每个特征的重要性。
    方法
    xx.apply()
    返回每条数据最终落在哪个叶子节点。
    xx.fit()
    返回建好的模型对象。
    xx.predict()
    返回每条数据预测的标签。
    xx.score()
    返回accuracy值

    展开全文
  • 决策树算法的 MATLAB 实践

    千次阅读 2021-02-11 15:04:04
    决策树算法原理: 决策树算法的基本原理 决策树算法是一种特别简单的机器学习分类算法。在机器学习中,决策树是一个预测模型,其代表的是对象属性与对象之间的一种映射关系。 决策树算法的特点: 决策树算法的...

    决策树算法原理:

    决策树算法的基本原理

    决策树算法是一种特别简单的机器学习分类算法。在机器学习中,决策树是一个预测模型,其代表的是对象属性与对象之间的一种映射关系。
    

    决策树算法的特点:

    决策树算法的优点如下:

    1、 决策树易于理解和实现,用户在学习过程中不需要了解过多的背景知识,其能够直接体现数据的特点,只要通过适当的解释,用户能够理解决策树所表达的意义。

    2、 速度快,计算量相对较小,且容易转化成分类规则。只要沿着根节点向下一直走到叶子节点,沿途分裂条件是唯一且确定的。

    决策树算法的缺点则主要是在处理大样本集时,易出现过拟合现象,降低分类的准确性。


    随机森林:

    随机森林指的是利用多棵决策树(类似一片森林)对样本进行训练并预测的一种分类器。该分类器最早由 Leo Breiman 和 Adele Culter 提出,并被注册成了商标。在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别数输出的类别的众数而定。这个方法则是结合 Breiman 的"Bootstrap aggregating" 想法和 Ho 的“random subspace method”以建造决策树的集合。


    MATLAB 实践:

    在MATLAB 中,为方便用户对决策树算法的使用,MATLAB 中针对分类决策树和回归决策树分别封装了两个函数:fitctree 和 fitrtree。由于分类决策树和回归决策树两者具有极大的相似性,因此 fitctree 和 fitrtree 两者的使用方法也基本一致。

    分类决策树 fitctree 函数在决策树进行分支时,采用的是 CART 方法。其使用方法为 TREE = fitrtree(TBL,Y),其中,TBL 为样本属性值矩阵,Y 为样本标签。利用 MATLAB 中自带的统计3种鸢尾属样本数据 fisheriris,其属性分别为花萼长度、花萼宽度、花瓣长度、花瓣宽度,标签分别为‘setosa’、‘versicolor’ 和 ‘virginica’。

    具体代码如下:

    %%CART决策树算法Matlab实现
    clear all;
    close all;
    clc;
    load fisheriris  %载入样本数据
    t = fitctree(meas,species,'PredictorNames',{'SL' 'SW' 'PL' 'PW'})%定义四种属性显示名称
    view(t) %在命令行窗口中用文本显示决策树结构
    view(t,'Mode','graph') %图形显示决策树结构
    

    运行后显示结果如图:
    在这里插入图片描述

    MATLAB 命令行窗口显示结果:

    在这里插入图片描述

    分别单击上述 MATLAB 命令行窗口中的 Properties 和 Methods 超链接,在窗口中分别显示如下所示。单击 Properties 超链接显示的类 Classification Tree 的所有(可理解为生成决策树)属性,是指通过 fitctree 训练得到的树的所有属性,部分属性值可在 fitctree 函数调用时进行定义,如上述程序中的 PredictorNames(描述各属性的名称)等,另外一部分则是对形成的树的具体属性描述,如 NumNodes(描述各属性的名称)等。由于各属性是属于训练成的决策树,因此当需要观测和调用属性值时,可采用 t.XXX 调用,其中 t 表示训练生成的树的名称,XXX 表示属性名称。
    在这里插入图片描述

    单击 Methods 超链接显示的是类 Classification Tree(可理解为生成的决策树)的操作方法。

    在这里插入图片描述

    对于属性和方法的具体含义及使用方法,可通过 help XXX 查询,XXX 为属性或方法名。下面介绍决策树的剪枝方法(Prune)和观测方法(View)的基本使用方法。

    语法如下:

    t2 = prune(t1, 'level', levelvalue)
    t2 = purne(t1, 'nodes', nodes)
    view(t2, 'Mode', 'graph')
    

    其中,t1 表示原决策树,t2 表示剪枝后的新决策树,‘level’ 表示按照层进行剪枝,levelvalue 表示剪掉的层数。‘nodes’ 表示按照借点剪枝,nodes 表示剪掉该结点后的所有枝。view(t2,‘Model’,‘graph’)表示以图形化方式显示 t2 决策树。

    针对上述的决策树,进行剪枝。在 MATLAB 命令行窗口中输入:
    在这里插入图片描述

    经过裁剪后的决策树如下图所示:
    在这里插入图片描述

    经过上诉对决策树的剪枝等操作后,就形成了一个具有使用价值的决策树,在 MATLAB 命令行窗口中输入:
    在这里插入图片描述

    运行后输出结果如下:
    在这里插入图片描述

    上图表示通过决策树分类后,属性值为[1 0.2 0.4 2] 的鸢尾属植物 setosa。

    展开全文
  • 人工智能(二)——决策树算法

    千次阅读 2019-06-20 16:52:08
    人工智能(二)——决策树算法 (运用:监督学习--分类) 什么是决策树/判定树 决策树是一个类似于流程图的树结构,分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种...

    人工智能(二)——决策树算法

    (运用:监督学习--分类)

    什么是决策树/判定树

    决策树是一个类似于流程图的树结构,分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。

    用决策树分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点;这时,每一个子结点对应着该特征的一个取值。如此递归的对实例进行测试并分配,直至达到叶结点,最后将实例分到叶结点的类中。

    图中圆和方框分别表示内部结点和叶结点

    决策树学习的损失函数通常是正则化的极大似然函数,决策树学习的策略是以损失函数为目标函数的最小化。

    决策树学习算法包含特征选择,决策树的生产与决策树的剪枝过程。

    特征选择问题

    特征选择在于选取对训练数据进行分类能力的特征,这样可以提高决策树学习的效率。如果利用一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征是没有分类能力的。去掉这样的特征对决策树学习的精度影响不大。通常特征选择的准则是信息增益或信息增益比。

    信息熵(entropy)的概念

    熵表示随机变量不确定性的度量。

    设X是一个取有限个值的离散随机变量,其概率分布为P(X=x_{i})=p_{i},i=1,2,```,n,则随机变量X的熵定义为H(x)=-\sum P(x)\log_{2}[P(x)]  (通常log以2或e为底),熵的单位分别称作比特(bit)或纳特(nat),变量的不确定性越大,熵也就越大。

    条件熵的概念

    设有随机变量(X,Y),其联合概率分布为P(X=x_{i},Y=y_{j})=p_{ij},i=1,2,```,n;j=1,2,```,m,条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。随机变量X给定的条件下随机变量Y的条件熵H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望H(Y|X)=\sum {p_{i}}H(Y|X=x_{i}),p_{i}=P(X=x_{i}),i=1,2,```,n

    信息增益

    信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度。特征A对训练数据集D的信息增益个(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,g(D,A=H(D)-H(D|A)

    一般地,熵H(Y)与条件熵H(Y|X)之差称为互信息,决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

    信息增益准则的特征选择方法是:对训练数据集(或子集)D,计算其每个特征的信息增益,并比较它们的大小,选择信息增益最大的特征。

    由上图知共15个样本:

    同理可计算出“有工作”,“有自己的房子”,“信贷情况”这三个特征的信息增益。最后比较各特征的信息增益。由于特征“有自己的房子”的信息增益值最大,所以选择该特征作为最优特征。

    信息增益比

    特征A对训练数据集D的信息增益比g_{R}(D,A)定义为其信息增益g_{R}(D,A)与训练数据集D的经验熵H(D)之比:

    决策树的生成

    决策树ID3算法

    ID3算法的核心是在决策树各个结点上应用信息增益准则选择特征,递归地构建决策树。具体方法:从根结点开始,对结点计算所有可能的特征的信息增益,选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子结点;再对子结点递归地调用以上方法,构建决策树;直到所有特征的信息增益均很小或没有特征可以选择为止。

    决策树C4.5算法

    C4.5算法与ID3算法相似,在生成过程中,用信息增益比替代信息增益来选择特征。

    决策树CART算法(分类与回归树模型)

    决策树的生成就是递归地构建二叉决策树的过程,对回归树用平方误差最小化准则,对分类树用基尼指数(Gini index)最小化准则,进行特征选择,生成二叉树。

    决策树的剪枝

    在决策树学习中将已生成的树进行简化的过程称为剪枝。这个操作是为了防止发生过拟合现象,使决策树具有更好的泛化能力。过拟合的原因在于学习时过多地考虑如何提高训练数据的正确分类,从而构建出过于复杂的决策树。决策树的剪枝往往通过极小化决策树整体的损失函数或代价函数来实现。

    决策树的优缺点

    优点:直观,便于理解,小规模数据集有效

    缺点:处理连续变量不好;类别比较多时,错误增加的比较快;可规模性一般

     

    参考:李航《统计学习方法》

    展开全文
  • 决策树算法

    2019-06-08 17:18:45
    理解决策树以及决策树的几种算法 总结决策树模型结构 理解决策树递归思想 学习信息增益 学习信息增益率 学习ID3算法优缺点 学习C4.5算法优缺点 理解C4.5算法在ID3算法上有什么提升 学习C4.5算法在...
  • 决策树算法简介2.决策树分类原理2.1 熵2.2 决策树的划分依据一------信息增益2.3 决策树的划分依据二----信息增益率2.4 决策树的划分依据三——基尼值和基尼指数案例2.5 小结1.决策树构建的步骤2.常见决策树类型的...
  • 初识人工智能--决策树算法

    千次阅读 2017-09-07 17:28:03
    1. 什么是决策树/判定树(decision tree)?判定树是一个类似于流程图的树结构:其中,每个内部结点表示在一个属性上的测试,每个分支代表一个属性输出,而每个树叶结点代表类或类分布。树的最顶层是根结点。 2. 机器...
  • 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画...
  • scikit-learn决策树算法类库内部实现是使用了调优过的CART树算法,既可以做分类,又可以做回归。分类决策树的类对应的是DecisionTreeClassifier。 sklearn.tree模块提供了决策树模型,用于解决分类问题和回归问题。...
  • 决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,最早产生于上世纪60/70年代,由J Ross Quinlan提出了ID3算法和C4.5算法。C4.5算法在ID3算法的基础上进行了改进,对与预测变量的缺值处理,剪枝技术...
  • ID3和C4.5算法,生成的决策树是多叉树,只能处理分类不能处理回归。而CART(classification and regression tree)分类回归树算法,既可用于分类也可用于回归。 分类树的输出是样本的类别, 回归树的输出是一个实数...
  • 决策树算法原理

    千次阅读 2017-07-15 01:27:51
    决策树算法在机器学习中算是很经典的一个算法系列了。它既可以作为分类算法,也可以作为回归算法,同时也特别适合集成学习比如随机森林。本文就对决策树算法原理做一个总结,上篇对ID3, C4.5的算法思想做了总结,下...
  • ❝决策树()是一类很常见很经典的机器学习算法,既可以作为分类算法也可以作为回归算法。同时也适合许多集成算法,如, ,以后会逐一介绍。本篇介绍一下决策树算法的原理。❞决策树算法不像前面介绍...
  • Breast-Cancer-Prediction:在人工智能学术课程中使用监督学习决策树算法进行乳腺癌预防
  • 决策树算法总结

    2019-01-28 00:20:01
    1、决策树算法中学习简单的决策规则建立决策树模型的过程非常容易理解, 2、决策树模型可以可视化,非常直观 3、应用范围广,可用于分类和回归,而且非常容易做多类别的分类 4、能够处理数值型和连...
  • 决策树算法最原始的版本是ID3算法,ID3算法由Ross Quinlan发明,建立在“奥卡姆剃刀”的基础上:越是小型的决策树越优于大的决策树(be simple简单理论)。ID3算法中根据信息增益评估和选择特征,每次选择信息增益...
  • 决策树算法解读即实例应用

    千次阅读 2018-10-07 09:59:06
    决策树ID3算法 决策树/判定树...根据决策判定条件的先后,分为不同的决策树算法。在1970年代,一个名为昆兰的大牛找到了用信息论中的熵来度量决策树的决策选择过程,方法一出,它的简洁和高效就引起了轰动,...
  • 分类_决策树算法

    千次阅读 2020-04-26 11:48:52
    #导入sklearn的内嵌鸢尾花数据集 ...#导入决策树分类器,同时导入计算交叉验证值的函数cross_val-score from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import cross_val_score #...
  • 【机器学习算法专题(蓄力计划)】十七、机器学习中决策树算法
  • 决策树是一种逻辑简单的机器学习算法,可用作分类,也可用作回归,属于监督学习(Supervised learning)。 决策树的模型表达式f(x)很难被写出,却很容易被画出 决策树是一种树形结构: 树形结构: ①结点+有向边 ...
  • 4.6 CART算法 ...前文介绍了ID3、C4.5生成决策树算法。由于上文使用的测试数据以及建立的模型都比较简单,所以其泛化能力很好。但是,当训练数据量很大的时候,建立的决策树模型往往非常复杂,树的深度很...
  • 决策树算法的简介 决策树算法是机器学习中的监督学习算法,决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行...
  • 手把手教你推导决策树算法

    万次阅读 2020-05-31 17:54:19
    本文为大家介绍了机器学习中常用的决策树算法以及相关术语,并基于天气数据集进行决策树算法(ID3、CART算法)实现过程的手动推导。 原文标题:Decision Tree Algorithm With Hands On Example 原文链接:...
  • python实现决策树算法

    2019-03-30 19:48:30
    通过python基础语言实现机器学习中基础算法-决策树。有助于初学机器学习的小白加深对机器学习的理解。
  • 我们以是否买房为例子给大家介绍一下决策树算法的使用,数据集如下(仅做演示,不代表真实情况)地段 近地铁 面积 单价(万) 是否购买 三环 是 60 8 是 三环 是 80 8 否 三环 否 60 7 是 三环 否 80 7 否 五环 是 ...
  • CART算法决策树的一种方法之一,其同样有如下流程:决策树的特征的选择,决策树的生成,决策树的剪枝。决策树的生成可以看成是一种局部最优,而决策树剪枝是全局最优的求解。其中决策树的剪枝也是用熵的模型,不过...
  • 机器学习-决策树算法

    千次阅读 2018-08-10 10:45:46
    决策树是一种能解决分类或回归问题的机器学习算法。 其有良好的扩展性,可以产生多种变种。 并且结合模型融合方法扩展新的算法AdaBoost,GBDT等算法。   参考文章: C4.5算法详解(非常仔细):...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 30,409
精华内容 12,163
关键字:

人工智能决策树算法