精华内容
下载资源
问答
  • 模糊决策分析方法

    万次阅读 多人点赞 2019-05-07 09:26:40
    模糊数学模型系列博文: 【1】基本概念: 隶属函数、模糊集合的表示方法、模糊关系、模糊矩阵 ...模糊数学中一个研究的热点问题就是“模糊决策”,它就是研究在模糊环境下或者 模糊系统中进行决策的...

    模糊数学模型系列博文:

    【1】基本概念: 隶属函数、模糊集合的表示方法、模糊关系、模糊矩阵

    【2】模糊模式识别:海明贴近度 、欧几里得贴近度 、黎曼贴近度、 格贴近度、最大隶属原则、择近原则

    【3】模糊聚类分析方法:模糊等价矩阵、模糊相似矩阵、传递闭包法、布尔矩阵法

    【4】模糊决策分析方法


    模糊数学中有一个研究的热点问题就是“模糊决策”,它就是研究在模糊环境下或者 模糊系统中进行决策的数学理论和方法。模糊决策的目标是把决策论域中的对象在模糊 环境下进行排序,或按某些模糊限制条件从决策域中选择出最优对象。


    目录

    1 模糊综合评价法                           ★ 多目标模糊综合评价法建模实例

    2 多目标模糊综合评价决策法         ★ 多目标模糊综合评价决策法建模实例

    3 多层次模糊综合评价模型的数学方法

    3.1 多层次模糊综合评价模型数学方法的基本步骤

    3.2 多目标模糊综合评价决策法建模实例

    (4)权重的确定        ① 频数统计法确定权重.              ② 模糊层次分析法(AHP)确定权重

              4 模糊多属性决策方法                                                           4.1 模糊多属性决策理论的描述

    4.2 折衷型模糊多属性决策方法                                           (2)折衷型模糊决策的基本步骤

    Step1:指标数据的三角形模糊数表达                         Step2: 模糊指标矩阵 F 归一化处理

    Step3: 构造模糊决策矩阵                                            Step4: 确定模糊正理想 与模糊负理想 

    4.3 折衷型模糊决策方法建模实例



    1 模糊综合评价法

    模糊综合评价方法,是应用模糊关系合成的原理,从多个因素(指标)对被评价事物 隶属等级状况进行综合性评判的一种方法,其具体的步骤为:

    常用的模糊算子有:

    经过比较研究, M (•,⊕) 对各因素按权数大小,统筹兼顾,综合考虑,比较合理。

    (6) 对模糊综合评价结果 B 作分析处理。

    ★ 多目标模糊综合评价法建模实例

    科技成果通常可用技术水平、技术难度、工作量、经济效益、社会效益等 5 个指 标进行评价,等级分为一等、二等、三等、四等。某项科研成果经过评委会评定,得到 单因素评判矩阵.

    用 M (•,⊕) 算子,得 B = (0.23,0.35,0.31,0.11) 由计算结果可见,用 M (•,⊕) 评价模型比较合理,成果应评为二等奖。

    2 多目标模糊综合评价决策法

    当被评价的对象有两个以上时,从多个对象中选择出一个最优的方法称为多目标模 糊综合评价决策法。 评价的步骤:

    ① 对每个对象按上面多个目标(因素)进行模糊综合评价;

    ② 将模糊评语量化,计算各对象的优先度。假设模糊评价评语量化集(或评价尺 度)为 S ,则各对象的优先度为:

    ★ 多目标模糊综合评价决策法建模实例

    假定在上例中有两项科研成果,第一项科研成果为甲项,其模糊评价结果为 B1 = (0.23,0.5,0.31,0.11) 现对科研成果乙进行同样的模糊评价,其评价矩阵为

    各评价因素的权值分配为 A = (0.35,0.35,0.1,0.1,0.1)

    所以,综合评价为

     例 16 某露天煤矿有五个边坡设计方案,其各项参数根据分析计算结果得到边坡 设计方案的参数如下表所示。

    据勘探该矿探明储量 8800 吨,开采总投资不超过 8000 万元,试作出各方案的优 劣排序,选出最佳方案。 解 首先确定隶属函数:

    (1)可采矿量的隶属函数

    因为勘探的地质储量为 8800 吨,故可用资源的利用函数作为隶属函数

    根据专家评价,诸项目在决策中占的权重为 A = (0.25, 0.20, 0.20, 0.10, 0.25) , 于是得诸方案的综合评价为 B = AR = (0.7435, 0.5919, 0.6789, 0.3600, 0.3905)

    由此可知:方案 I 最佳,III 次之,IV 最差。 程序计算如下:

    (1)首先编写函数文件 myfun.m 如下:

    function f=myfun(x);
    f(1,:)=x(1,:)/8800;
    f(2,:)=1-x(2,:)/8000;
    f(3,:)=0;
    f(3,find(x(3,:)<=5.5))=1; 
    flag=find(x(3,:)>5.5 & x(3,:)<=8);
    f(3,flag)=(8-x(3,flag))/2.5;
    f(4,:)=1-x(4,:)/200;
    f(5,:)=(x(5,:)-50)/1450; 

    (2)编写程序文件如下:

    x=[4700 6700 5900 8800 7600
    5000 5500 5300 6800 6000
    4.0 6.1 5.5 7.0 6.8
    30 50 40 200 160
    1500 700 1000 50 100];
    r=myfun(x);
    a=[0.25,0.20,0.20,0.10,0.25];
    b=a*r 

    3 多层次模糊综合评价模型的数学方法

    3.1 多层次模糊综合评价模型数学方法的基本步骤

    3.2 多目标模糊综合评价决策法建模实例

    科技成果模糊综合评价模型的建立及其有关参数的确定。

    (1)科技成果综合评价的因素集(指标体系)的确定 根据科研成果的特点, 并经过专家调研, 设计以下一套综合评价指标体系.

    (2)科技成果的评语集的确定

    在评价科技成果时,可以将其分为一定的等级. 在此, 从“专家打分”的角度把 评价的等级分为“10 分”、“8 分”、“6 分”、“4 分”、“2 分”五个等级,因此评语集表 示为: V = {10 分, 8 分, 6 分, 4 分, 2 分}.

    (4)权重 \large a_k 的确定

    在(1)给出的综合评价体系中三大准则及 9 个指标中, 他们在综合评价中的重要 程度是不一样的。地位重要的,应给予较大的权重;反之,应给出较小的权重。下文给 出两种确定权重的实用方法。

    ① 频数统计法确定权重.

    ② 模糊层次分析法(AHP)确定权重

    该法的基本原理是从(1)中给出的综合评价体系的层次结构出发,针对每个准则 内的指标,运用专家的知识、智慧、信息和价值观,对同一层或同一个域的指标进行两 两比较对比,并按 1—9 判断标度及含义构造判断矩阵 D = \large (d_{ij})_{n\times n} ,再由组织者计算比

    (5)科技成果的综合评价

    4 模糊多属性决策方法

    4.1 模糊多属性决策理论的描述

    4.2 折衷型模糊多属性决策方法

    (1)折衷型模糊决策的基本原理 折衷型模糊决策的基本原理是:

    从原始的样本数据出发,先虚拟模糊正理想和模糊 负理想,其中模糊正理想是由每一个指标中模糊指标值的极大值构成;模糊负理想是由 每一个指标中模糊指标值的极小值构成。然后采用加权欧氏距离的测度工具来计算各备 选对象与模糊正理想和模糊负理想之间的距离。在此基础上,再计算各备选对象属于模 糊正理想的隶属度,其方案优选的原则是,隶属度越大,该方案越理想。

    (2)折衷型模糊决策的基本步骤

    Step1:指标数据的三角形模糊数表达

    下面运用以上的定义将定性、定量指标以及权重数据统一量化为三角形模糊数.

    1) 对于定性指标,可以将两极比例法改进为三角模糊数比例法。再利用三角模糊 数比例法将定性指标转化为定量指标,其具体的转化形式见表 9。

    2) 对于精确的定量指标值,也写成三角模糊数的形式。设 a 是一个具体的精确数, 由三角模糊数的定义,则 a 表示成三角模糊数的形式为:

    数的表达形式.

    Step2: 模糊指标矩阵 F 归一化处理

    Step3: 构造模糊决策矩阵

    Step4: 确定模糊正理想 \large M^{+}与模糊负理想 \large M^{-}

    4.3 折衷型模糊决策方法建模实例

    某市直属单位因工作需要,拟向社会公开招聘 8 名公务员,具体的招聘办法和程序 如下:

    (一)公开考试:凡是年龄不超过 30 周岁,大学专科以上学历,身体健康者均可 报名参加考试,考试科目有:综合基础知识、专业知识和“行政职业能力测验”三个部 分,每科满分为 100 分。根据考试总分的高低排序选出 16 人选择进入第二阶段的面试 考核。

    (二)面试考核:面试考核主要考核应聘人员的知识面、对问题的理解能力、应变 能力、表达能力等综合素质。按照一定的标准,面试专家组对每个应聘人员的各个方面 都给出一个等级评分,从高到低分成 A/B/C/D 四个等级,具体结果见表 10 所示。

    现要求根据表 8 中的数据信息对 16 名应聘人员作出综合评价,选出 8 名作为录用 的公务员。

    建模过程:

    ① 借鉴表 9 的思想,对于定性指标值 A,B,C,D,可以定义表 10 的量化标准 将这些定性指标进行量化,其具体的量化形式见表 11。

    ② 由表 11 和公式(1)把表 10 中的指标信息、权重信息化成三角形模糊数,得到

    ③ 由公式(3’)和(4)将 F 中的数据进行归一加权化,得到模糊决策矩阵 D 。

    ④ 由公式(5)确定出模糊正理想与模糊负理想

    ⑤ 模糊优选决策

    因此被选种的 8 个人员是人员 1、4、2、9、8、5、7、12。 计算的 MATLAB 程序如下:

    %把表 3 中的数据复制到纯文本文件 mohu.txt 中,然后把 A 替换成 85 90 100,
    %B 替换成 75 80 85,C 替换成 60 70 75,D 替换成 50 55 60
    clc,clear
    load mohu.txt
    sj=[repmat(mohu(:,1),1,3),mohu(:,2:end)];
    %首先进行归一化处理
    n=size(sj,2)/3;m=size(sj,1);
    w=[0.5*ones(1,3),0.125*ones(1,12)];
    w=repmat(w,m,1);
    y=[];
    for i=1:n
        tm=sj(:,3*i-2:3*i);
        max_t=max(tm);
        max_t=repmat(max_t,m,1);
        max_t=max_t(:,3:-1:1);
        yt=tm./max_t;yt(:,3)=min([yt(:,3)';ones(1,m)]);
        y=[y,yt];
    end
    %下面求模糊决策矩阵
    r=[];
    for i=1:n
        tm1=y(:,3*i-2:3*i);tm2=w(:,3*i-2:3*i);
        r=[r,tm1.*tm2];
    end
    %求 M+、M-和距离
    mplus=max(r);mminus=min(r)
    dplus=dist(mplus,r');dminus=dist(mminus,r');
    %求隶属度
    mu=dminus./(dplus+dminus);
    [mu_sort,ind]=sort(mu,'descend') 

    习题

    1. (工程评标问题)某建设单位组织一项工程项目的招标,现组建成评标专家组 对 4 个投标单位的标书进行评标。4 个标书的指标信息见表 13,其中前三个指标信息是 各投标单位给定的精确数据,后三个指标信息是评标专家组经考察后的定性结论。 请 你帮评标专家组设计一个工程评标模型,以确定最后中标单位.


    模糊数学模型系列博文:

    【1】基本概念: 隶属函数、模糊集合的表示方法、模糊关系、模糊矩阵

    【2】模糊模式识别:海明贴近度 、欧几里得贴近度 、黎曼贴近度、 格贴近度、最大隶属原则、择近原则

    【3】模糊聚类分析方法:模糊等价矩阵、模糊相似矩阵、传递闭包法、布尔矩阵法

    【4】模糊决策分析方法


     

    展开全文
  • 决策方法

    千次阅读 2010-07-26 00:47:00
    <br />决策方法最早产生于上世纪60年代,到70年代末。由J Ross Quinlan提出了ID3算法,此算法的目的在于减少树的深度。但是忽略了叶子数目的研究。C4.5算法在ID3算法的基础上进行了改进,对于预测变量的缺值...

    决策树方法最早产生于上世纪60年代,到70年代末。由J Ross Quinlan提出了ID3算法,此算法的目的在于减少树的深度。但是忽略了叶子数目的研究。C4.5算法在ID3算法的基础上进行了改进,对于预测变量的缺值处理、剪枝技术、派生规则等方面作了较大改进,既适合于分类问题,又适合于回归问题

        这里 介绍其基本原理 和一个实验例子。

        先介绍2个算法:

        算法一:熵entropy

        熵(entropy)指的是体系的混乱的程度,当我们尝试把混合集合A={B1,B2,C1,C2…..} (其中Bx表示一个类别的元素,Cx表示另外一个) 划分为2个集合 MN(即决策树的2个分支时候),比较好的划分是 M 里面都是BxN里面都是Cx,这时候我们需要一个函数对 划分以后 的 集合进行评估,看看是否纯度 够“纯”。如果很纯,很有序,熵就是0.

        理解该公式:   p(xi越平均,系统约混乱,如果系统只有2个元素x1x2x1出现概率是0.5x2出现概率也是0.5,即p(x1) =0.5  p(x2) =0.5 ,这时公式计算结果为1; p(xi)如果比较不平均,比如p(x2) =1,那就是系统很确定,一点都不混乱,肯定是x2构成,这时熵计算结果就是0.

        这个规律刚刚好是 log 函数特点 过(10)这个点(见下图),我想这个就是克劳德·艾尔伍德·香农设计这个公式选择log函数的道理。

        用python 实现就是 :

        def entropy(l):

        from math import log

        #函数编程语法,定义一个函数

        log2=lambda x:log(x)/log(2)

        total=len(l)

        counts={}

        #统计每个类型出现格式

        for item in l:

        counts.setdefault(item,0)

        counts[item]+=1

        ent=0

        for i in counts:

        p=float(counts[i])/total #计算概率

        ent-=p*log2(p)   #熵计算

        return ent


        算法二:除了 熵,还有一个衡量一个集合是否混乱的方法叫 Gini Impurity (基尼不纯度)方法。

        公式如下:

        公式基本上也符合以上 熵的 规律: 集合越纯  值越小,如果只有2个元素时候,每个元素出现概率就是0.5,这时 I = 0.5*0.5 +0.5*0.5 =0.5

        0.5*0.5   # 我的理解是  K1(出现概率0.5) 被当做 其他Kx的概率(出现概率0.5


        Python 实现如下:

        # 去重 统计每个出现次数

        def uniquecounts(rows):

           results={}

           for row in rows:

              # The result is the last column

              r=row[len(row)-1]

              if r not in results: results[r]=0

              results[r]+=1

           return results

        def giniimpurity(rows):

          total=len(rows)

          counts=uniquecounts(rows)

          imp=0

          for k1 in counts:

               # k1 的概率

            p1=float(counts[k1])/total

            for k2 in counts:

              if k1==k2: continue

               # k2 的概率

              p2=float(counts[k2])/total

               # 我的理解是  K1 被当做 其他Kx的概率

              imp+=p1*p2

          return imp


        现在开始介绍决策树:

        决策树树节点定义:

        class decisionnode:

          def __init__(self,col=-1,value=None,results=None,tb=None,fb=None):

            self.col=col  #第几个列 即因子

            self.value=value  #判断值

            self.results=results   #结果集合

            self.tb=tb  #左右树

            self.fb=fb

     

        #构建决策树的过程,scoref 就是前面衡量 集合混乱 程度的2个算法的函数之一

        def buildtree(rows,scoref=entropy):

          if len(rows)==0: return decisionnode()

          current_score=scoref(rows)

          # 最佳划分

          best_gain=0.0

          best_criteria=None

          best_sets=None

          #列数

          column_count=len(rows[0])-1

          for col in range(0,column_count):

            column_values={}

            # 统计每一列可能的值

            for row in rows:

               column_values[row[col]]=1

          #尝试每一列 每一种值 作为划分集合

            for value in column_values.keys():

              (set1,set2)=divideset(rows,col,value)

              # Information gain 信息增益??我的理解是加权计算目前的得分,即纯度、混乱度

              p=float(len(set1))/len(rows)

              gain=current_score-p*scoref(set1)-(1-p)*scoref(set2)

              if gain>best_gain and len(set1)>0 and len(set2)>0:

                best_gain=gain

                best_criteria=(col,value)

                best_sets=(set1,set2)

          # 创建子分支

          if best_gain>0:

            trueBranch=buildtree(best_sets[0])

            falseBranch=buildtree(best_sets[1])

            return decisionnode(col=best_criteria[0],value=best_criteria[1],

                                tb=trueBranch,fb=falseBranch)

          else:

            # 如果是叶子节点则统计这个分支的 个数

            return decisionnode(results=uniquecounts(rows))

        #根据某列值 划分rows  2个 集合

        # or nominal values

        def divideset(rows,column,value):

           # Make a function that tells us if a row is in

           # the first group (true) or the second group (false)

           split_function=None

           if isinstance(value,int) or isinstance(value,float):

              split_function=lambda row:row[column]>=value

           else:

              split_function=lambda row:row[column]==value

           # Divide the rows into two sets and return them

           set1=[row for row in rows if split_function(row)]

           set2=[row for row in rows if not split_function(row)]

           return (set1,set2)

        #利用一个已知树 决策过程

        def classify(observation,tree):

          if tree.results!=None:

            return tree.results

          else:

            v=observation[tree.col]

            branch=None

            if isinstance(v,int) or isinstance(v,float):

              if v>=tree.value: branch=tree.tb

              else: branch=tree.fb

            else:

              if v==tree.value: branch=tree.tb

              else: branch=tree.fb

            return classify(observation,branch)


        时间抽取是 web 页面 分类、抽取时候一个很重要的 课题。通常一个页面将包含多个可能代表 该页面 发表时间的 字符串,如果判断一个 包含数字的字符串是否是一个时间串 ,往往要考虑很多因素,比如 ,整个过程会比较繁琐。

        这里尝试利用1099 页面 分析处理得到的162个时间串的各个属性 ,利用决策树进行学习,最终生成一个决策树 ,该决策树可以新的 时间串,根据其属性进行 判断。

        以下是实验效果:

        其中每一列代表 其属性值,比如  第一列含义是  该字符串是否出现在 链接中,是为ture

     

        生成决策树:

        >>> datas=[ line.split('|')[1:] for line in file('result3') ]

        >>> tree= treepredict.buildtree(datas)

        对某个时间 2010-05-27 00:00:00  提取的各个特征通过这个决策树 判断是否是时间

        2010-05-27 00:00:00|false|false|false|false|true|false|false|false|8825|0.971809|2|8|0|false|false|0

        结论是:不是时间 

        >>> treepredict.classify(['false', 'false', 'false', 'false', 'true', 'false', '

        false', 'false', 'false', 'false', 'false', 'false', 'false', '0', '7754','249',

         '0.967919', '0.031082', '0', '0', '0', '0', '0', '2', '-1', '0', '8', '0', '0',

         '0'],tree)

        {'0/n': 30}

     

        我们可以查看下 这个机器学习 产生的 决策树:

        局部:

        从上图可以看到 8  1011 列 值对于该问题决策该串是否是时间串 起着关键作用,虽然我们可能考虑很多因素、但以下几列起着关键作用,具体含义是 块开始 、 正文的位置关系 、字符串长度等。

        这个从实验数据集来看也比较正常,因为这个数据集是我的实验数据,很多列值没有精确计算,基本雷同,变化不大。换句话说,对最后决策其作用都是那些 变化比较大的列项。


        以上是关于决策树原理实现和工程利用的一个例子的学习笔记,对于时间抽取是否适合利用决策树来处理,目前还没有定论和应用,这里只是利用他来帮助我们理解 在众多因素参与决策时候,哪些因素关键些,较好解释了我们决策过程,每个因子起到作用,比如有的因子其实不起作用,至少在我们的数据集中。

        决策树在工程实际利用时候,可能 还要面临 树裁剪 (Decision Tree Pruning)、数据项某些维度数据缺少的问题。

        什么时候使用决策树 ,本身就是一个问题。

        更多内容参考

        http://wiki.mbalib.com/wiki/%E5%86%B3%E7%AD%96%E6%A0%91

    展开全文
  • 任务3:请根据以下需求使用决策表设计测试用例 信用卡额度发放: 年收入小于2万,不发放信用卡; 2万<=年收入<5万,无稳定工作,额度1万,稳定工作额度3万; 5万<=年收入<10万,无稳定工作额度3万...

    任务3:请根据以下需求使用决策表设计测试用例

    信用卡额度发放:

    年收入小于2万,不发放信用卡;

    2万<=年收入<5万,无稳定工作,额度1万,有稳定工作额度3万;

    5万<=年收入<10万,无稳定工作额度3万,有稳定工作额度5万;

    10万<=年收入<50万,无稳定工作额度5万,有稳定工作额度10万;

    50万<=年收入<100万,无稳定工作额度10万,有稳定工作额度20万;

    100万<=年收入,额度20万

    一、写出条件桩、条件项、动作桩、动作项 (40分)

    二、画出完整的决策表 (30分)

    三、简化决策表 (20分)

    四、设计测试用例 (10分)


    一、写出条件桩、条件项、动作桩、动作项
    条件桩:列出问题的所有条件(输入区)
    二、画出完整的决策表
    在这里插入图片描述
    三、简化决策表
    在这里插入图片描述
    四、设计测试用例
    在这里插入图片描述

    展开全文
  • 一种简化决策树ROC的方法

    千次阅读 2014-03-22 13:23:49
    以下仅作为个人的一些理解,如谬误,忘不吝赐教。 该方法可普遍用于两个classes,多个leaves的决策树。 论文第二部分主要告诉我们如何寻找最优决策树的labellings,并且通过这个最优的labellings可以直接画出简化...

    本方法来自论文:Learning Decision Trees Using the Area Under the ROC Curve

    以下仅作为个人的一些理解,如有谬误,忘不吝赐教。
    该方法可普遍用于两个classes,多个leaves的决策树。

    论文第二部分主要告诉我们如何寻找最优决策树的labellings,并且通过这个最优的labellings可以直接画出简化后的决策树的ROC,而不用寻找所有可能的labellings(所有可能个数为2^n,2为classes数量,n为leaves的数量)。并且证明了:
    1. labelling是最小的成本根据训练集合(training set)
    2.任意成本矩阵(稍后会解释)属于最优labellings 的集合。
    3.在三个labellings里(Si-1,Si,Si+1),Si 对应了ROC空间里的点。
    4.如果两个labelling是相同时,不需要考虑这个点在ROC空间上。
    5.如果在决策树的叶子具有相同的局部正精度(local positive accuracy)(稍后会解释),我们可以删除这个重复的叶子。
    Tip: Labelling is a set of assignments to each tree leaf

    工程上来说不需要论文里的证明,下面我们将通过例子来展示该方法是如何运用的。
    Example:假设我们有一个两类(+和-)三叶子(leaf1,leaf2,leaf3)的决策树,训练数据的分布如表所示:

    第一步:重新排列叶子
    排列原则是根据局部正精度(local positive accuracy)表示为:  

    上表中三个叶子的局部正精度分别为:leaf1 = 3/(3+5), leaf2 = 5/(5+1),leaf3=4/(4+2)
    按照从大到小顺序重新排列叶子得到如下新表:
    第二步:定义最优labellings = {S0,S1,…Sn}(n是叶子的数量),新表如下:

    第三步:定义每个labelling为Si=,Si (0≤i≤n) 

    如果j≤i, =(j,+) 即第j个叶子为+。 如果j>i,=(j,-) 即第j个叶子为-。

    计算所有的Si并且更新表格如下:

    第四步:定义成本矩阵(Cost matrices)  
    矩阵上面两个分别代表真实值是+和-,左边是预测值的+和-。
    C++表示预测值是+并且真实值也是+,即true positive,
    C+-表示预测值是+但是真实值是-
    C-+表示预测值是-但是真实值是+,即false positive,
    C--表示预测值是-并且真实值也是-
    并且计算FPR(false positive rate)即: ,TPR(true positive rate)即: 

    预测值就是第三步中的Si,预测值已经通过第三步给出来了,结果详见第三步下边的表格。
    下面我们就可以根据不同的预测值来选择的门限(threshold)来更新成本矩阵:

    第五步:以FRP为横坐标,TPR为纵坐标。绘制出ROC点,连接每个点就画出了ROC曲线。
    下图是论文中的图,但不匹配计算出的FPR,TPR。方法是对的,但不知是否忽略了什么,欢迎各位提建议指正。

    原文发于博客:http://blog.csdn.net/u013787595
    GMX 2014.3.22  US Eastern Time 


    展开全文
  • 综合评价与决策方法综述理想解法 综述 评价方法一般分为两类。一类是主观赋权法,多数采取综合咨询评分确定权重,如:综合指数法、模糊综合评价法、层次分析法、功效系数法等。另一类是客观赋权法,根据各指标之间的...
  • 决策树(DT)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像...
  • 一、综合评价与决策方法 评价方法大体上可分为两类: 1.主观赋权法:综合指数法、模糊综合评判法、层次分析法、功效系数法等 2.客观赋权法:主成分分析法、因子分析法、TOPSIS法、秩和比法、灰色关联法、熵权法、...
  • 统计学习方法笔记-决策树模型

    千次阅读 2018-06-03 21:04:00
    简介: 决策树是一种基本的分类与回归方法。下面的笔记主要记录用于分类的决策树。决策树模型呈树形结构,在分类中,表示基于特征对实例进行分类的过程。其主要优点是:模型具有可读性,分类速度快。学习时利用训练...
  • 申明:本文的公式均来自《统计学习方法》电子版截图(太懒没手敲。。。) 1.首先选择特征以开展(生成)决策树 特征选择三个算法:ID3 C4.5 CART 分别使用的是:最大信息增益 最大信息增益比 最小Gini系数(分类)...
  • 决策树模型是用于解决分类问题的一个模型,它的特点是简答、逻辑清晰、可解释性好。 决策树是基于“树”结构进行决策的。 每个“内部结点”对应于某个属性上的“测试”; 每个分支对应于该测试的一种可能结果(也...
  • 决策树与随机森林(从入门到精通)

    万次阅读 多人点赞 2020-07-06 22:54:44
    决策树(decision tree)是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。决策树学习通常包括三个步骤:特征选择,决策树的生成和决策树的修剪。而随机森林则是由多个决策树所构成的一种分类器,更准确...
  • 前面三篇写了线性回归,lasso,和LARS的一些内容,这篇写一下决策树这个经典的分类算法,后面再提一提随机森林。关于决策树的内容主要来自于网络上几个技术博客,本文中借用的地方我都会写清楚出处,写这篇[整理文章...
  • 决策

    千次阅读 2015-06-01 08:18:09
    在众多分类算法中,决策树应该是最基本的一种算法了,也是相对比较简单的一种算法。 决策树的介绍:首先,什么叫做决策树?决策树用于解决什么样的问题?先看一个例子: 现有某银行客户拖欠贷款的历史数据,如表...
  • 五、决策树--统计学习方法总结

    千次阅读 2016-12-26 15:05:47
    决策树 1决策树模型与学习 11决策树模型 12决策树与if-then规则 13决策树与条件概率分布 14决策树学习 2特征选择 ...五、决策决策树(decision tree)是一种基本的分类与回归方法,这里主要讨论用于
  • 统计学习方法笔记七----决策

    千次阅读 2017-07-03 15:17:17
    它提供一种在什么条件下会得到什么值的类似规则(if-then)的方法决策树分为分类树和回归树两种,分类数对离散变量做决策树,回归树对连续变量做决策树。本节主要讨论用于分类的决策树。  在分类问题中,表示...
  • 基于决策树的各种集成方法的总结1.NP问题与NPC问题2.决策树3.集成方法4.随机森林5.Adaboost与GBDT算法5.1Adaboost5.2GBDT5.3总结6.过拟合问题6.1产生过拟合的原因6.2解决方法(这里只针对决策树来考虑)几种避免决策...
  • 决策树学习采用的是自顶向下的递归方法,其基本方法是以信息熵为度量构造亦可熵值下降最快的树,到叶子节点处的熵值为零,此时每个叶节点的实例都属于同一类。 2、决策树学习算法的特点 ​ 1.决策树学习算法的...
  • 本人在运用Python中决策树算法解决电力窃漏电用户识别分析时,遇到Python决策树可视化的问题。 如下是建立决策树模型时的脚本: from sklearn.tree import DecisionTreeClassifier,export_graphviz from sklearn...
  • “最近在实验室项目的研究中,客户需要对比在决策场景中决策树与神经网络的对比,在查阅资料过程中,发现这篇发布于微博的文章写的很好,与大家一块分享” 这个问题可以从几个维度来分析。但先要说明决策树就是...
  • 详解决策树、python实现决策

    万次阅读 多人点赞 2017-12-10 21:57:47
    决策树模型 定义 决策过程 决策树学习 ...决策树由节点(Node)和向边(directed edge)组成。节点两种类型:内部节点(internal node)和叶节点(left node)。内部节点表示一个特征或一个属性,叶节
  • 决策树:决策树是一个通过训练的数据来搭建起的树结构模型,根节点中存储着所有数据集和特征集,当前节点的每个分支是该节点在相应的特征值上的表现,而叶子节点存放的结果则是决策结果。通过这个模型,我们可以高效...
  • 决策表法被称为“最严格、最具有逻辑性”的黑盒测试方法,能够复杂逻辑关系和多条件组合情况表达的较为明确。适用于:输入输出较多且相互制约条件较多的问题。2.决策表: 由条件桩、动作桩、条件项、动作项四个...
  • scikit-learn决策树算法类库使用小结(分类回归树参数对比介绍与可视化方法) 官方回归树的example代码如下 print(__doc__) # Import the necessary modules and libraries import numpy as np ...
  • 参考:http://www.cnblogs.com/arachis/p/DTreeFamily.html 摘要:  1.算法概述 ... 2.... 3.... 4.... 5.... 1.1 决策树(DT)是一种基本的分类和回归方法。在分类问题中它可以认为是if-then规则的集合
  • 1.决策决策树是一种用于对实例进行分类的树形结构。 Hunt算法是一种采用局部最优策略的决策树构建算法,它同时也是许多决策树算法的基础,包括ID3、C4.5和CART等。 Hunt算法的递归定义如下:  (1) 如果 中...
  • 统计学习方法-李航(第5章 决策树笔记)
  • 决策树详解

    万次阅读 多人点赞 2018-07-18 20:42:46
    例如人给我们介绍新的对象的时候,我们就要一个个特点去判断,于是这种判断的过程就可以画成一棵树,例如根据特点依次判断: 如上,决策的形式以树的形式进行示意和编码,就形成了决策树。 结构 显然,...
  • 统计学习方法 李航---第5章 决策

    千次阅读 2016-03-30 09:54:27
    决策树(decision tree)是一种基本的分类与回归方法。本章主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 126,223
精华内容 50,489
关键字:

以下属于决策的方法有