精华内容
下载资源
问答
  • QGIS插件,具有基于栅格的多标准决策分析(MCDA)决策规则计算功能。 RasterMCDA最初是在我在卡林西亚应用科学大学(CUAS)的地理信息学士学位课程期间实施的。 这是我第一次实现QGIS插件。 MCDA理论/数学公式的...
  • 多标准决策分析处理需要考虑个标准的决策问题。 可能会以不同的尺度来衡量标准,因此很难进行比较。 帮助用户组织问题并反思其对决策的评估的一种方法是通过基于分类的评估技术(MACBETH)来衡量吸引力。 在此,...
  • 通过标准决策对人手腕脉搏信号进行聚类
  • 目标决策指标标准化&权重选取

    千次阅读 2019-06-16 19:11:42
    目标决策 https://wiki.mbalib.com/wiki/%E5%A4%9A%E7%9B%AE%E6%A0%87%E5%86%B3%E7%AD%96%E6%B3%95  目标决策是对个相互矛盾的目标进行科学、合理的选优,然后作出决策的理论和方法。它是20世纪70年代后...

    多目标决策

    https://wiki.mbalib.com/wiki/%E5%A4%9A%E7%9B%AE%E6%A0%87%E5%86%B3%E7%AD%96%E6%B3%95 

    多目标决策是对多个相互矛盾的目标进行科学、合理的选优,然后作出决策的理论和方法。它是20世纪70年代后迅速发展起来的管理科学的一个新的分支。多目标决策与只为了达到一个目标而从许多可行方案中选出最佳方案的一般决策有所不同。

    常用的方法有下述几种;

      1.化多为少法。即将多目标改为由一个统一的综合目标来比较方案。包括综合评分法平方和法约束法

      2.目标分层法。把所有目标分别按其重要性排一个次序。

      3.分层序列法:将所有目标按其重要性程度依次排序,先求出第一个最重要的目标的最优解,然后在保证前一目标最优解的前提下依次求下一目标的最优解,一直求到最后一个目标为止。

      4.直接求非劣解法:先求出一组非劣解,然后按事先确定好的评价标准从中找出一个满意的解。

      5.目标规划法:对于每一个目标都事先给定一个期望值,然后在满足系统一定约束条件下,找出与目标期望值最近的解。

      6.多属性效用法:各个目标均用表示效用程度大小的效用函数表示,通过效用函数构成多目标的综合效用函数,以此来评价各个可行方案的优劣。

      7.层次分析法:把目标体系结构予以展开,求得目标与决策方案的计量关系。

      8.重排序法:把原来的不好比较的非劣解通过其他办法使其排出优劣次序来。

    指标

    指标按其值是否为数值,可分为定量指标和定性指标(或称模糊的)。
    传统上,指标按其具体含义可分为效益型,成本型,固定型和区间型。效益型指标是指其值越大越好的指标;成本型指标是指其值越小越好的指标;固定型指标是指其值不能太大,又不能太小,而以稳定在某个固定值为最佳的指标;或者说其值越接近某个值越好的指标;区间型指标是指其值以落在某个固定区间为最佳的指标,或者说,其值越接近某个固定区间(包括落入该区间)越好的指标。
    但是,世界上的事物都是对立统一的。既然现实问题中存在越接近某值越好的指标(固定型),自然存在越偏离某个值越好的指标;既然存在越接近某区间越好的指标(区间型),自然存在越偏离某个区间越好的指标。因此提出另外两个指标:
    偏离型指标是指越偏离某个具体的值(称作劣值)越好的指标。
    偏离区间型指标是指越偏离某个具体区间(称作劣区间)越好的指标。

     

    指标的标度问题:
    多个指标的单位通常互不相同,所以不能互相比较。值就是指标的标度问题和指标的标准化问题。
    1. 指标的标度 有三种计量尺度可用于量的计算:序数尺度,区间尺度和比率尺度。由于定性指标转化为比率尺度极难,所以大部分MODM方法借助于序数尺度或区间尺度。定性指标转换为序数尺度比转换为区间尺度容易的多。下面是定性指标向区间尺度转换的方法。
    2.定性指标的量化 把定性指标转化为区间尺度的常用方法之一是使用Bipolar尺度。例如:可选10点标度并用某一方式标定它。从终点开始,给最优属性值赋10点,给最差属性值赋0点。中间点也是标定的基础。因为它是有利的属性值和不利的属性值之间的转折点。

    指标的标准化:


    原文:https://blog.csdn.net/u010141928/article/details/72615003

    指标权重确定方法之熵权法

    多目标决策问题主要有主要目标法、线性加权法、分层序列法、步骤法(Stem法),
    本篇主要着重讲线性加权法。
    线性加权法的特点主要是实现了将多个目标函数通过线性加权的方式集成到了单个目标函数,
    那么问题就转化为了一般性的线性规划类问题。线性加权法中也可以将指标定性与定量结合,
    一定程度上增加了主观性因素。
    但笔者认为最关键的还是确定各个指标的权重,
    而熵权法与基于三角模糊数的层次分析法,模糊层次分析法FAHP,主成分分析法(PVC),
    主观赋权法(不提倡)是笔者看来比较好的确定权重的方法。
    此处先讲熵权法来确定权重,熵权法可用于任何评价类问题的指标权重确定,
    可以剔除贡献率较低的指标,可以说有且仅有此优点。
    (1)通过max-min极差标准化,z-score零均方差标准化处理将多个指标实现归一化处理
    (2)求解信息熵值
    (3)根据信息熵求解各个指标对应权重
    原文:https://blog.csdn.net/qq_41879767/article/details/82313461

    一、熵权法介绍

           熵最先由申农引入信息论,目前已经在工程技术、社会经济等领域得到了非常广泛的应用。

           熵权法的基本思路是根据指标变异性的大小来确定客观权重。

           一般来说,若某个指标的信息熵越小,表明指标值得变异程度越大,提供的信息量越多,在综合评价中所能起到的作用也越大,其权重也就越大。相反,某个指标的信息熵越大,表明指标值得变异程度越小,提供的信息量也越少,在综合评价中所起到的作用也越小,其权重也就越小。

    二、熵权法赋权步骤

    1. 数据标准化

           将各个指标的数据进行标准化处理。

           假设给定了k个指标,其中。假设对各指标数据标准化后的值为,那么

    2. 求各指标的信息熵

           根据信息论中信息熵的定义,一组数据的信息熵。其中,如果,则定义

    3. 确定各指标权重

           根据信息熵的计算公式,计算出各个指标的信息熵为 。通过信息熵计算各指标的权重: 。

    https://blog.csdn.net/qq_32942549/article/details/80019005 

    展开全文
  • 因此,当已婚妇女不得不面对“出生”或“堕胎”的选择时,她们会在对医生,思想,心理和社会产生各种影响的情况下考虑很想法以及不同的决策标准决策模式。 这项研究的目的是调查成年已婚妇女决定终止或继续计划...
  • 在讨论了候选数据模型(基础,分层和网络)后,我们研究了用于选择MCDSS数据模型的标准在本文的最后一部分,我们回顾了一些在多标准决策框架内支持数据定义,数据处理和数据完整性的数据库管理服务。 这些服务指导...
  • 属性决策

    千次阅读 2017-07-26 09:48:57
    属性决策(有限方案目标决策),实现较好的数据预处理 由决策变量选择对应的决策形式 离散型 进行分析评价的目的是对方案进行排序 连续型 从非劣解集中获取偏好解 数据预处理 遵循非量纲化、归一化 属性值的...

    多属性决策(有限方案多目标决策),实现较好的数据预处理

    • 由决策变量选择对应的决策形式
    离散型 进行分析评价的目的是对方案进行排序
    连续型 从非劣解集中获取偏好解
    • 数据预处理
      遵循非量纲化、归一化

    • 属性值的定性等级
      最好、很好、好、较好、相当、较差、差、很差、最差
      采取序数标度,取0~10之间的整数
      这里写图片描述

    • 目标重要性判断的矩阵取值
      这里写图片描述

    • 最底层目标权重的计算
      复杂的多属性决策问题的目标往往具有层次结构,分两种:一种是树状结构,下层次的目标只与上一层目标中的一个相关联;另一种是网状结构,下层次的目标与上一层次的两个或者两个以上的目标相关联

    基于模糊神经网络的在线评论效用分类过滤模型研究

    但研究成果局限于仅可为在线
    评论效用指标因素选取提供理论参考,并不能直接量化在线评论的可信度和评论效用。
    在线评论质量评价方法方面,Jindal等采用过滤重复
    评论和建立回归模型的方式对电子商务网站中针对品牌的评论、非可信评论和无实质内容的评论进行筛选,从而实现在线评论有用性的过滤识别;Liu等
    通过建立支持向量机(Support Vector Machine,SVM)模型,从评论的主观性、信息量和可读性三个特征维度对在线评论质量进行有效区分;王
    忠群等提出一种基于领域专家和商品特征概念树的在线商品评论深刻性度量模型,从而实现使用评论长度对在线商品评论深刻性的科学计量;聂卉采用文本内容分析技术,从多个特征维度提取评论内容特征指标,结合机器学习方法构建在线评论效用价值预测模型。孟美任等在深入分析在线中文商品评论特点的基础上,通过问卷调查可信度影响因素,选取发布者身份明确性、内容完整性、评论时效性以及情感平衡性四维属性,采用条件随机场(Conditional
    Random Fields,CRFs)模型对在线评论效用进行等级分类。此类研究实现了在线评论效用的排序和分类,但大多将在线评论进行有用或无用的二维效用划分,使得有用评论数量依然庞大,评论的二维效用筛选无法实现可信度的有效区分,使消费者很难以较低的信息搜索成本快速获取高质量的在线评论信息。
    综合以上文献,在线评论领域的研究还主要集中于对影响因素探讨及有用评论识别研究,对有用信息过滤研究中依然存在信息过载的现象,基于此,本文在过去研究的基础上,构建了一个应用模糊神经网络(Fuzzy Neural Network,FNN)进行预测在线评论效用的模型,对在线评论进行效用5分类研究

    • 属性
      这里写图片描述

    • 本文从影响在线评论效用的高相关因素入手,构建基于
      模糊神经网络的在线商品评论效用模型,提出一种在线评论
      效用分类方法,通过亚马逊电子商务平台手机评论的实例验
      证,

    • 属性指标量化分析
      采用5分量法,确定级别

    • 分析相关系数
      采用Spearman秩相关系数进行分析,
      结果显示:评论长度、产品属性词、情感强度以及修饰词数量四个指标的显著性检验都达到95%以上,表明这四项指标与在线评论效用呈显著的正相关关系。对于剩下的两个指标,有用性投票和时效性的相关性都比较小,并且没有表现出明显的显著性。分析后去掉无显著相关的两项指标。

    • 模糊神经网络
      模糊神经网络(Fuzzy Neural Network,FNN)是模糊技术与神经网络技术的有效融合,是基于模糊推理系统可以用多层级的前馈神经网络来表示的原理而结合在一起的,是将样本进行模糊化处理并不断量化为规则化形式的过程。此文使用多输入单输出(MISO)的FNN来搭建软测量模型。

    • 实例分析

      1. 选定19名专家通过表4的在线评论效用评分标准将抓取的评论进行效用等级分类,取每条评论的平均值作为评判结果
        2.1 在线评论效用”的评价作为目
        标变量,评论长度、产品属性词、情感强度、修饰词数量分别
        记为(In1,In2,In3,In4),Ini与Y的取值为5个级别,记为1,2,
        3,4,5。根据表2的指标量化方式统计得到每条评论各个指
        标的量化值后
        2.2 利用 MATLAB2014a 构建模糊神经网络系
        统,从而得到模型中的参数。
        2.3 推理过程采用MATLAB工具箱的Mamdani方法进行训练,共构建推理规则625条.
        2.4 去模糊化采用重心法。采取自然语言规则形成建立推理规则,以(In1,In2,In3,In4)四个维度为推理前件,在线评论效用值为后件,建立模糊推理系统(FIS)。训练模型选择
        FNN模型,误差允许值为0.01
        2.5 模型结果分析
        对模糊神经网络模型的检验样本进行检验,采用准确率和均方误差来对在线评论效用模型进行试验评价。
        为了测试模糊神经网络的实验效果,将本文方法与BP
        神经网络进行对比评判。
    展开全文
  • 我们首先描述多标准决策支持系统(MCDSS)的一些功能,这些功能将它们与经典DSS区别开来。 Wethen概述了MCDSS的软件体系结构,它具有三个基本组件:对话框管理器,MCDM模型管理器和数据管理器。 我们描述了在集成的...
  • MCDC专业版 使用元启发式算法的条件/决策覆盖标准的测试用例生成器。
  • 变量决策

    千次阅读 热门讨论 2020-06-02 19:23:15
    本文使用PyTorch进行变量决策树的实现. 变量决策树的结构为二叉树,实际上是个线性模型的组合,原理可见下图: 图4.13表示的是变量决策树的结构,图4.14表示的是对应的分类边界 代码实现 定义数据集 首先将...

    简单介绍

    本文使用PyTorch进行多变量决策树的实现. 多变量决策树的结构为二叉树,实际上是多个线性模型的组合,原理可见下图:
    多变量决策树
    图4.13表示的是多变量决策树的结构,图4.14表示的是对应的分类边界

    代码实现

    定义数据集

    首先将书中的数据集转换为方便计算机操作的形式,数据集如下图所示:
    数据集
    首先将各离散属性值进行编号:
    颜色{青绿=0, 乌黑=1, 浅白=2}, 根蒂{蜷缩=0, 稍蜷=1, 硬挺=2}, 敲声{浊响=0, 沉闷=1, 清脆=2}, 纹理{清晰=0, 稍糊=1, 模糊=2}, 脐部{凹陷=0, 稍凹=1, 平坦=2}, 触感{硬滑=0, 软粘=1}, 结果{坏瓜=0, 好瓜=1}.
    属性的排列顺序为图中的从左到右, 对应的代码如下:

    import torch
    
    # create training dataset
    train_dataset=[[0, 0, 0, 0, 0, 0, 1],[1, 0, 1, 0, 0, 0, 1],
                   [1, 0, 0, 0, 0, 0, 1],[0, 0, 1, 0, 0, 0 ,1],
                   [2, 0, 0, 0, 0, 0, 1],[0, 1, 0, 0, 1, 1, 1],
                   [1, 1, 0, 1, 1, 1, 1],[1, 1, 0, 0, 1, 0, 1],
                   [1, 1, 1, 1, 1, 0, 0],[0, 2, 2, 0, 2, 1, 0],
                   [2, 2, 2, 2, 2, 0, 0],[2, 0, 0, 2, 2, 1, 0],
                   [0, 1, 0, 1, 0, 0, 0],[2, 1, 1, 1, 0, 0, 0],
                   [1, 1, 0, 0, 1, 1, 0],[2, 0, 0, 2, 2, 0, 0],
                   [0, 0, 1, 1, 1, 0, 0]
    ]
    

    由于离散属性值无法直接代入线性模型,因此将离散属性one-hot化,并且为了方便后续计算损失值,标记为好瓜时,对应的标签 y = 1 y=1 y=1, 标记为坏瓜时,对应的标签 y = − 1 y=-1 y=1代码如下:

    # turn input data into one-hot vector
    def one_hot(input_data):
        # load data into torch and change the data's dimension(turn M×n into n×M)
        input_data_copy = torch.tensor(input_data).t()
        # get the numbers of data and data's feature
        feature_num, data_num = input_data_copy.shape
        # create a tenosr to save output
        output_X = torch.tensor([])
        for i in range(feature_num - 1): # the last dimension is result
            # compute the feature_i's dimension after one-hot
            output_X_i_shape = data_num, int(input_data_copy[i].max().item())+1
            output_X_i = torch.zeros(output_X_i_shape, dtype=torch.float).scatter_(1, input_data_copy[i].view(-1,1), 1)
            output_X = torch.cat((output_X, output_X_i), 1) # put the two matrix together
        # get the label of each data
        output_y = input_data_copy[-1].view(-1, 1) * 2 - 1
        return output_X, output_y.float()
    

    将训练数据one-hot,代码如下:

    # test one_hot function
    train_X, train_y = one_hot(train_dataset)
    print(train_X.shape) # 17×(3+3+3+3+3+2)
    print(train_y.shape) # 17×1
    

    连续值的属性可以直接使用,将其加入训练数据:

    # add density and sugar content
    new_feature = torch.tensor([[0.697, 0.460], [0.774, 0.376], [0.634, 0.264], [0.608, 0.318], 
                   [0.556, 0.215], [0.403, 0.237], [0.481, 0.149], [0.437, 0.211], 
                   [0.666, 0.091], [0.243, 0.267], [0.245, 0.057], [0.343, 0.099],
                   [0.639, 0.161], [0.657, 0.198], [0.360, 0.370], [0.593, 0.042],
                   [0.719, 0.103]
    ])
    train_X = torch.cat((train_X, new_feature), 1)
    print(train_X.shape)
    

    定义线性模型

    # define the model
    def createModel(input_channel, output_channel):
        net = nn.Sequential(
            nn.Linear(input_channel, output_channel)
        )
        return net
    

    定义损失函数

    对于损失函数的定义,本文直接采用距离值,由多变量决策树的结构可以发现,预测值为:
    y ^ = ∑ x i w i + b \hat y = \sum x_iw_i+b y^=xiwi+b
    分类标准为 y ^ \hat y y^和0的大小, y ^ > = 0 \hat y>=0 y^>=0为一类, y ^ < 0 \hat y<0 y^<0为一类. 可将损失值定义为 y ^ \hat y y^与零的距离. 当预测正确时,损失值为0,预测错误时,即是与零的距离. 例如 y ^ = 5 \hat y=5 y^=5并且 y = 1 y=1 y=1时, 损失值为0,而 y ^ = − 5 \hat y=-5 y^=5并且 y = 1 y=1 y=1时,损失值为5.
    代码实现如下:

    # define the loss
    def Loss(y_hat, y):
        tmp = y * y_hat
        l = (tmp < 0).float() * tmp
        return abs(l).sum()
    

    定义决策树结点

    多变量决策树为二叉树,其成员有四个,分别是1):左结点 2)右结点 3)线性模型(结点为非叶结点时) 4)预测值(结点为叶子结点时),代码如下:

    class TreeNode():
        def __init__(self, model=None, predicted=-1, left=None, right=None):
            self.model = model
            self.predicted = predicted
            self.left = left
            self.right = right
    

    实现训练模型函数和估计准确率函数

    该部分的代码基本适用于任何模型,是PyTorch框架实现模型训练的基本流程,代码如下:

    def train(net, train_X, train_y, epochs, lr, print_frequence=0):
        optim = torch.optim.SGD(net.parameters(), lr=lr)
        for epoch in range(epochs):
            optim.zero_grad()
            y_hat = net(train_X)
            l = Loss(train_y, y_hat)
            l.backward()
            optim.step()
            if print_frequence:
                if (epoch+1) % print_frequence == 0:
                    print("epoch:%d, loss:%f" % (epoch, l.item()))
                    print("epoch:%d, accuracy:%0.2f%%\n" % (epoch, evaluate(net, train_X, train_y)))
        
    def evaluate(net, train_X, train_y):
        y_hat = net(train_X)
        y_hat = (y_hat>=0).float() * 2 - 1
        accuray = 100 * (y_hat == train_y).sum().float() / len(train_y) 
        return accuray
    

    完成后,进行测试:

    # test train function
    net = createModel(19, 1)
    train(net, train_X, train_y, 40, 0.01, 10)
    

    测试结果如下:
    测试结果

    生成多变量决策树

    多变量决策树的生成逻辑其实很简单:当训练后的线性模型无法满足精度要求时,就根据预测值对数据集进行二分,然后再训练一个新的线性模型,这就意味着需要一个递归结束的条件. 值得注意的是,可能出现如下情况:在该节点训练好线性模型后,无法满足精度要求,则需要对结点和训练数据集进行二分,此时可能会出现,二分后,存在一个分数据集满足精度要求,那么该节点为叶子结点,无需训练线性模型,为了方便理解. 将其进行数学描述:假设一个结点训练完成后的测试精度为80%,其中正类测试精度为90%,反类测试精度为70%,精度要求为85%,显然,对该节点根据预测值进行二分后,包含预测正类的数据集已无需再分,而包含预测反类的数据集还需要再分.
    在实现生成多变量决策树前,首先需要实现根据预测值二分训练集函数
    两个函数实现如下:

    def createTree(tree, train_X, train_y, epochs, lr, precision):
        if len(train_y) == 0:
            return None
        tree.model = createModel(train_X.shape[1], train_y.shape[1])
        train(tree.model, train_X, train_y, epochs, lr)
        # binnary training set according to predicted value
        train_set = binaryTrainSet(tree.model, train_X, train_y)
        # create left subtree
        if len(train_set[0][1])==0 or evaluate(tree.model, train_set[0][0], train_set[0][1]) > precision:
            tree.left = TreeNode(predicted=0)
        else:
            tree.left = TreeNode()
            createTree(tree.left, train_set[0][0], train_set[0][1], epochs, lr, precision)
        
        # create right subtree
        if len(train_set[1][1])==0 or evaluate(tree.model, train_set[1][0], train_set[1][1]) > precision:
            tree.right = TreeNode(predicted=1)
        else:
            tree.right = TreeNode()
            createTree(tree.right, train_set[1][0], train_set[1][1], epochs, lr, precision)
        
    def binaryTrainSet(net, train_X, train_y):
        y_hat = net(train_X)
        train_set = [[torch.tensor([]), []] for _ in range(2)] # create a empty list to store result
        for index in range(len(train_y)):
            class_id = int(y_hat[index]>=0)
            train_set[class_id][0] = torch.cat((train_set[class_id][0], train_X[index].view(1, -1)), 0)
            train_set[class_id][1].append(train_y[index].item())
        for i in range(2):
            train_set[i][1] = torch.tensor(train_set[i][1], dtype=torch.float).view(-1, 1)
        return train_set
    

    完成代码后, 生成决策树:

    tree = TreeNode() 
    createTree(tree, train_X, train_y, 200, 0.01, 90)
    

    实现预测函数

    预测过程实际上就是遍历二叉树的过程, 原理与二叉排序树的遍历过程一致,代码如下:

    def predict(tree, X):
        if tree.predicted != -1:
            result = tree.predicted
            return result
        else:
            y_hat = tree.model(X)
            if y_hat >= 0:
                return predict(tree.right, X)
            else :
                return predict(tree.left, X)
    

    实现多变量决策树的评估函数

    def evaluate_tree(tree, test_X, test_y):
        number = len(test_X) # the number of data
        right_number = 0
        for index in range(number):
            y_hat = predict(tree, test_X[index]) * 2 - 1
            if y_hat == test_y[index]:
                right_number += 1
        accuracy = 100 * right_number / number
        return accuracy
    

    测试生成的决策树和评估函数,代码如下:

    evaluate_tree(tree, train_X, train_y)
    

    测试结果如下:
    测试结果

    展开全文
  • -方案决策标准评估表new.doc
  • 准则决策分析

    2015-10-26 18:47:32
    使用IOWA算子进行群决策分析,获得较为一致的偏好信息。减少了仲裁者需要给出决策者权重的情况。
  • 决策树评判标准

    千次阅读 2018-08-20 20:30:44
    针对分类问题,划分规则的评判可以分为两步: ...上面的讨论针对的是分类问题,其实决策树也能解决回归问题,具体过程和分类问题大同小异,唯一的区别就是将不纯度的评判标准改为距离误差,比如均方差(MSE)。  

    针对分类问题,划分规则的评判可以分为两步:

    1.如果一个节点上的数据都差不多是同一类别,那么,这个节点就几乎不需要再做划分了,否则想要针对该节点,生成新的划分规则。

    2.如果新的规则能基本上把节点上不同类别的数据离开,使得每个子节点上都是类别比较单一的数据,那么这个规则就是一个好规则。

    当前节点记为m,节点上一共有Nm个数据。定义类别i在该节点上的占比如下: 

    现在定义节点的不纯度,通常记为Hm。数值越接近0,数据类型越单一。常用指标如下: 

     

     在节点不纯的基础上,进一步定义划分规则的不纯度。依旧以Gini为例,假设节点根据某种规则被划分为两个子节点,Ni为第i个子节点的数据个数,Ginii表示第i个子节点的Gini指标。权重为子节点的数据量占比。

     

    接下来讨论划分规则的处理方法。

    1. 当节点的Gini指标小于等于某个阈值(不妨记作min_impurity_split)时,则表示该节点不需要进一步拆分,否则需要生成新的划分规则。
    2. 对于每一个需要再次划分的节点,选择Gini指标最低的划分规则来生成子节点,并不断重复这个过程,直至所有节点都不需要再次划分。决策树的划分规则其实就是贪心算法。

    上面的讨论针对的是分类问题,其实决策树也能解决回归问题,具体过程和分类问题大同小异,唯一的区别就是将不纯度的评判标准改为距离误差,比如均方差(MSE)。

     

    展开全文
  • matlab实现决策矩阵规范化(属性决策) 一般来说,不同的决策变量量纲也不同,规范化可以消除量纲对最终结果的影响,使不同变量具有可比性。 假设决策矩阵为A=(aij)m×nA=({a_{ij}})_{m×n}A=(aij​)m×n​, ...
  • 针对属性值为区间灰数且部分权重信息已知的属性决策问题, 提出一种基于区间灰数的核和灰度的决策方法. 根据专家评价值的取值范围设置区间灰数的取值论域, 给出了区间灰数的基于核和灰度的简化形式, 建立了普通区间...
  • 通过标准化考试成绩提高决策潜力的模型 通过标准化考试成绩提高决策潜力的模型 J. GARY HOOVER GEORGE R. FLEETWOOD 北卡罗来纳大学 Greetisboro Chapel Hill City Schools 开发模型以更有效地使用制定了团体管理...
  • 首先将原始准则值转化为标准灰数, 同时进行规范化处理, 得到各状态下的标准灰色风险决策矩阵;然后依据后悔理论,定义灰色感知效用函数,构造决策者对方案集的灰色综合感知效用最大化的目标优化模型,并解出最优权重...
  • 01 贝叶斯决策理论要解决的问题  根据已有数据对新的数据行分类   02 从一个经典的例子说起  问题:已知若干条鲈鱼和马哈鱼的长度信息,根于一条未知品种的鱼的长度,判断其是鲈鱼还是马哈鱼。    思路:...
  • 然后针对方案准则值为扩展灰数的不确定准则决策问题, 提出一种基于Hurwicz 的概率不确定的灰色随机准则决策方法. 该方法通过使用扩展灰数的可能度和Hurwicz准则求得各方案在各准则下的评价值, 经规范化后得到...
  • 数学建模 02属性决策 归一化处理

    千次阅读 2019-07-18 09:23:07
    属性决策 什么是属性决策 它指的是利用已有的决策信息通过移动的方式对一组(有限个)备选方案进行排序或者择优。它的主要组成部分有如下2种: 1、获取决策信息:属性权重和属性值(实数、区间数和语言)。 ...
  • 为什么决策树相关的算法不需要标准化?那么那些模型需要标准化那?.pdf
  • 论文研究-经济环境协调标准及其辅助决策模型的研究.pdf, 基于环境经济协调发展的时空性,指出经济与环境协调标准并非是点标准而是区域性标准,并从阐明环保投资与环境...
  • 已经提出了许多非常有效的决策工具,它们属于多标准决策的范畴。 本文提出了一种称为分析层次过程(AHP)的决策工具,这是一种用于大型,多方,多标准决策分析的复杂决策技术。 AHP将比较评估转换为可以在问题的...
  • 决策树算法(1)--特征选择标准

    千次阅读 2019-02-03 14:43:39
    先举一个简单的例子理解一下决策树算法:父母为孩子选择学校,会了解个学校的教学水平、学校设施等“条件”,假设有一家有足够选择能力的父母认为教学水平是第一位的,而设备等次之,且将教学水平分为了一般、较好...
  • 文章目录一、算法介绍1. 加权算术平均算子(WAA)2. 属性值归一化处理二、适用问题三、算法总结1. 步骤四、应用场景举例(企业评估)1...  属性决策是现代决策科学的一个重要组成部分,它的理论和方法在工程设计、经
  • 从模糊模式识别概念出发, 建立决策方案集对全体级别加权广义欧氏权距离平方和最小的非 ...标准决策信息不完全确知情况的决策问题, 为解决复杂系统的不完全信息目标决策提供了一条新 途径。</p>
  • /** * 使用决策树算法预测 * def trainRegressor( * input: RDD[LabeledPoint], * categoricalFeaturesInfo: Map[Int, Int], * An entry (n to k)ndicates that feature n is categorical ...
  • 决策树与随机森林(从入门到精通)

    万次阅读 多人点赞 2020-07-06 22:54:44
    决策树(decision tree)是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。...而随机森林则是由决策树所构成的一种分类器,更准确的说,随机森林是由个弱分类器组合形成的强分类器。
  • 基于设置值决策系统中标准值的动态变化导致的知识更新需求,本文提出了当设置值决策系统中的标准值随时间变化时,动态维护近似值的更新属性。时间。 然后,提出了两种分别用于计算近似值的增量算法,分别与标准值的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 185,300
精华内容 74,120
关键字:

多标准决策