精华内容
下载资源
问答
  • 2021-01-17 02:32:48

    但不知道质量一致性检验是什么意思,以及他和型式检验的区别。

    通常,产品生产时在工艺不变,原材料基本一致的情况下,有些质量指标是基本不变的。因此,在产品生产质量控制中,可以对其中有些指标不做监控。型式检验一般是对.

    层次分析法中一致性检验指标ci不可以小于0,cr小于0.1判断矩阵才满足一致性检验,有时候可以等于0,但不能为负。若为负的话,说明数值错了。

    请把原因解释的尽量详细一些,谢谢~~~

    首先要知道,判断矩阵是各层次各因素之间进行两两比较相对重要性而得来的。那么. 但要求判断矩阵具有大体的一致性,所以需要进行一致性检验。这是我的理解~

    带有一致性检查的同步(也可以简称为一致性检查)是 DPM 用来检查和更正受保护数据源及其副本之间的不一致性的过程。作为同步过程的一部分,一致性检查执行逐个.

    甲从50个样品中用自己的方法检验出10个合格品,乙从同样这50个样品中用.

    一致性检验是为了检验各元素重要度之间的协调性,避免出现A比B重要,B比C重要,而C又比A重要这样的矛盾情况出现。1、一致性是指事务的基本特征或特性相同,其.

    判断矩阵通常的是不一致的,但是为了能用它的对应于最大特征根的特征向量作为被比较因素权向量,其不一致程度应在容许的范围内.

    层次分析法是指将与决策总是有关的元素分解成目标、准则、方案等层次,在此基础. 必须对判断矩阵是否可接受进行鉴别,这就是一致性检验的内涵。

    %以下是一致性检验CI=(t-n)/(n-1); CI=(t-n)/(n-1); RI=[0 0 0.52 0.89 1.12 1.26 。

    一致性检验能不能通过和RI矩阵有关系的,你这个检验要求更严格一些所以通zd过不了。我这有推荐的RI矩阵,你可以用我的这个函数试试,应该没问题。或者你自己更回.

    kappa运行参数是什么数据类型

    在诊断试验中,研究者希望考察不同诊断方法在诊断结果上是否具有一致性,比如:不同医务工作者对同一组病人的诊断结果是否一致、不同的诊断方法对同一个样本或研.

    检验一致性:(1)计算一致性指标C.I.=(最大特征值-n)/n-1 ; (2)找出相应的平均随机一致性指标R.I.; (3)计算一致性比例C.R.=C.I./R.I.;当C.R.

    期待看到有用的回答!

    我印象中好像是要用卡方的同质性还是一致性检验,但是又记得那是a*b列联。

    你的目的是比较两组被试的性别、受教育程度、年龄是否一来致吧,那就用普通的卡方分析就可以了,也自就是比较两组的性别、受教育程度、年龄是否存在差异,如果不.

    我不太清楚为什么要做一致性检验,请大大们解释一下,谢谢。

    意义:一致性检验是为了检验各元素重要度之间的协调性,避免出现A比B重要,B比C重要,而C又比A重要,这样的矛盾情况出现。在确定各层次各因素之间的权重时,.

    有多项检测检验点合格率最小的,如有3项检验点合格率分别为90%,80%,70%,其:逐项检验点合格率即满足大于70%的条件,且不合格点不集中。如有1项合格率小于70.

    确实是应该使用Kappa一致性检验评价结果的一致性。任何版本的SPSS都可以做Kappa一致性检验(被包含在卡方检验程序中),步骤跟做卡方检验基本相同,只需在卡.

    AHP模型有四层的时候,怎样进行总排序一致性检验?谢谢各位大虾

    无论多少层,都是从上到下,一层一层进行层次总排序和检验。您可以登录www.ahptool.net查看关于AHP的说明。

    认为判断矩阵中的不一致是由强矛盾判百断、弱矛盾判断、标度离散性、标度有限性共同作用的结果度.论文关于判断矩阵不一致性原因的分析及对一致性调整的解知决方案.

    请问一下矩阵一致性检验具体的计算步骤方法是什么?题目如图 对于计算步骤。

    如果是用spssau分析的话,结果会直接得到一致性检验的结果。具体可以查看spssau帮助手册:层次分析法-SPSSAU

    可以换一种标度方法,不一定要用1-9,可以用e的0/5次方到e的8/5次方标度方法。这个标度方法的一致性检验容易通过。可以下载yaahp自动计算。

    一致性检验是为了检验各元素重要度之间的协调性,避免出现A比B重要,B比C重要,而C又比A重要这样的矛盾情况出现

    更多相关内容
  • 相控震源在煤矿勘探领域广泛应用。针对相控震源非一致性问题,首先介绍了相控...理论及数值模拟证明,相控震源一致性评价方法准确可靠,能够客观评价相控震源的应用效果,对相控震源应用于煤炭资源勘探与开发具有重要意义
  • 提出了一种新的基于相位一致性特征的图像质量评价方法。该方法使用退化与参考图像的相位一致性在局部区域的相似度来测量图像质量的退化程度;并且考虑到相位一致性是纹理和边缘的反应,而人类视觉系统对纹理丰富的...
  • 一致性检验评价方法kappa

    千次阅读 2022-03-26 21:52:48
    一般用模型获得相同评价的数量与基于可能的期望是否有差别来分析,当两个模型相同评价的数量和基于可能期望的数量基本一样时,kappa的值就接近于1。 举个栗子,模型A和基准的kappa: kappa = (p0-pe) / (n-pe) ...

    Python微信订餐小程序课程视频

    https://edu.csdn.net/course/detail/36074

    Python实战量化交易理财系统

    https://edu.csdn.net/course/detail/35475
    最近在做眼底图像的无监督分类,使用的数据集辣子kaggle的Diabetic Retinopathy,简称DR,中文称糖尿病型眼底疾病。

    最后的评估方法是二次加权kappa。以前没接触过,网上也没有具体的介绍,在这里简单谈谈我的理解,如有错误欢迎指出。

    简介

    Kappa指数用来衡量两个模型对同一张图片进行判断时,判断结果一致的程度,结果范围从0~1,1表示评价完全相同,0表示评价完全相反。

    一般用模型获得相同评价的数量与基于可能性的期望是否有差别来分析,当两个模型相同评价的数量和基于可能性期望的数量基本一样时,kappa的值就接近于1。

    举个栗子,模型A和基准的kappa:

    image-20220326200106734

    kappa = (p0-pe) / (n-pe)

    其中,P0 = 对角线单元中观测值的总和;pe = 对角线单元中期望值的总和。

    根据kappa的计算方法分为简单kappa(simple kappa)和加权kappa(weighted kappa),加权kappa又分为linear weighted kappaquadratic weighted kappa。

    weighted kappa

    关于linear还是quadratic weighted kappa的选择,取决于你的数据集中不同class之间差异的意义。比如对于眼底图像识别的数据,class=0为健康,class=4为疾病晚期非常严重,所以对于把class=0预测成4的行为所造成的惩罚应该远远大于把class=0预测成class=1的行为,使用quadratic的话0->4所造成的惩罚就等于16倍的0->1的惩罚。如下图是一个四分类的两个计算方法的比较。

    img

    Python实现

    参考:https://github.com/benhamner/Metrics/blob/master/Python/ml_metrics/quadratic_weighted_kappa.py

    #! /usr/bin/env python2.7
    
    import numpy as np
    
    
    def confusion\_matrix(rater\_a, rater\_b, min\_rating=None, max\_rating=None):
        """
     Returns the confusion matrix between rater's ratings
     """
        assert(len(rater_a) == len(rater_b))
        if min_rating is None:
            min_rating = min(rater_a + rater_b)
        if max_rating is None:
            max_rating = max(rater_a + rater_b)
        num_ratings = int(max_rating - min_rating + 1)
        conf_mat = [[0 for i in range(num_ratings)]
                    for j in range(num_ratings)]
        for a, b in zip(rater_a, rater_b):
            conf_mat[a - min_rating][b - min_rating] += 1
        return conf_mat
    
    
    def histogram(ratings, min\_rating=None, max\_rating=None):
        """
     Returns the counts of each type of rating that a rater made
     """
        if min_rating is None:
            min_rating = min(ratings)
        if max_rating is None:
            max_rating = max(ratings)
        num_ratings = int(max_rating - min_rating + 1)
        hist_ratings = [0 for x in range(num_ratings)]
        for r in ratings:
            hist_ratings[r - min_rating] += 1
        return hist_ratings
    
    
    def quadratic\_weighted\_kappa(rater\_a, rater\_b, min\_rating=None, max\_rating=None):
        """
     Calculates the quadratic weighted kappa
     quadratic\_weighted\_kappa calculates the quadratic weighted kappa
     value, which is a measure of inter-rater agreement between two raters
     that provide discrete numeric ratings. Potential values range from -1
     (representing complete disagreement) to 1 (representing complete
     agreement). A kappa value of 0 is expected if all agreement is due to
     chance.
    
     quadratic\_weighted\_kappa(rater\_a, rater\_b), where rater\_a and rater\_b
     each correspond to a list of integer ratings. These lists must have the
     same length.
    
     The ratings should be integers, and it is assumed that they contain
     the complete range of possible ratings.
    
     quadratic\_weighted\_kappa(X, min\_rating, max\_rating), where min\_rating
     is the minimum possible rating, and max\_rating is the maximum possible
     rating
     """
        rater_a = np.array(rater_a, dtype=int)
        rater_b = np.array(rater_b, dtype=int)
        assert(len(rater_a) == len(rater_b))
        if min_rating is None:
            min_rating = min(min(rater_a), min(rater_b))
        if max_rating is None:
            max_rating = max(max(rater_a), max(rater_b))
        conf_mat = confusion_matrix(rater_a, rater_b,
                                    min_rating, max_rating)
        num_ratings = len(conf_mat)
        num_scored_items = float(len(rater_a))
    
        hist_rater_a = histogram(rater_a, min_rating, max_rating)
        hist_rater_b = histogram(rater_b, min_rating, max_rating)
    
        numerator = 0.0
        denominator = 0.0
    
        for i in range(num_ratings):
            for j in range(num_ratings):
                expected_count = (hist_rater_a[i] * hist_rater_b[j]
                                  / num_scored_items)
                d = pow(i - j, 2.0) / pow(num_ratings - 1, 2.0)
                numerator += d * conf_mat[i][j] / num_scored_items
                denominator += d * expected_count / num_scored_items
    
        return 1.0 - numerator / denominator
    
    
    def linear\_weighted\_kappa(rater\_a, rater\_b, min\_rating=None, max\_rating=None):
        """
     Calculates the linear weighted kappa
     linear\_weighted\_kappa calculates the linear weighted kappa
     value, which is a measure of inter-rater agreement between two raters
     that provide discrete numeric ratings. Potential values range from -1
     (representing complete disagreement) to 1 (representing complete
     agreement). A kappa value of 0 is expected if all agreement is due to
     chance.
    
     linear\_weighted\_kappa(rater\_a, rater\_b), where rater\_a and rater\_b
     each correspond to a list of integer ratings. These lists must have the
     same length.
    
     The ratings should be integers, and it is assumed that they contain
     the complete range of possible ratings.
    
     linear\_weighted\_kappa(X, min\_rating, max\_rating), where min\_rating
     is the minimum possible rating, and max\_rating is the maximum possible
     rating
     """
        assert(len(rater_a) == len(rater_b))
        if min_rating is None:
            min_rating = min(rater_a + rater_b)
        if max_rating is None:
            max_rating = max(rater_a + rater_b)
        conf_mat = confusion_matrix(rater_a, rater_b,
                                    min_rating, max_rating)
        num_ratings = len(conf_mat)
        num_scored_items = float(len(rater_a))
    
        hist_rater_a = histogram(rater_a, min_rating, max_rating)
        hist_rater_b = histogram(rater_b, min_rating, max_rating)
    
        numerator = 0.0
        denominator = 0.0
    
        for i in range(num_ratings):
            for j in range(num_ratings):
                expected_count = (hist_rater_a[i] * hist_rater_b[j]
                                  / num_scored_items)
                d = abs(i - j) / float(num_ratings - 1)
                numerator += d * conf_mat[i][j] / num_scored_items
                denominator += d * expected_count / num_scored_items
    
        return 1.0 - numerator / denominator
    
    
    def kappa(rater\_a, rater\_b, min\_rating=None, max\_rating=None):
        """
     Calculates the kappa
     kappa calculates the kappa
     value, which is a measure of inter-rater agreement between two raters
     that provide discrete numeric ratings. Potential values range from -1
     (representing complete disagreement) to 1 (representing complete
     agreement). A kappa value of 0 is expected if all agreement is due to
     chance.
    
     kappa(rater\_a, rater\_b), where rater\_a and rater\_b
     each correspond to a list of integer ratings. These lists must have the
     same length.
    
     The ratings should be integers, and it is assumed that they contain
     the complete range of possible ratings.
    
     kappa(X, min\_rating, max\_rating), where min\_rating
     is the minimum possible rating, and max\_rating is the maximum possible
     rating
     """
        assert(len(rater_a) == len(rater_b))
        if min_rating is None:
            min_rating = min(rater_a + rater_b)
        if max_rating is None:
            max_rating = max(rater_a + rater_b)
        conf_mat = confusion_matrix(rater_a, rater_b,
                                    min_rating, max_rating)
        num_ratings = len(conf_mat)
        num_scored_items = float(len(rater_a))
    
        hist_rater_a = histogram(rater_a, min_rating, max_rating)
        hist_rater_b = histogram(rater_b, min_rating, max_rating)
    
        numerator = 0.0
        denominator = 0.0
    
        for i in range(num_ratings):
            for j in range(num_ratings):
                expected_count = (hist_rater_a[i] * hist_rater_b[j]
                                  / num_scored_items)
                if i == j:
                    d = 0.0
                else:
                    d = 1.0
                numerator += d * conf_mat[i][j] / num_scored_items
                denominator += d * expected_count / num_scored_items
    
        return 1.0 - numerator / denominator
    
    
    def mean\_quadratic\_weighted\_kappa(kappas, weights=None):
        """
     Calculates the mean of the quadratic
     weighted kappas after applying Fisher's r-to-z transform, which is
     approximately a variance-stabilizing transformation. This
     transformation is undefined if one of the kappas is 1.0, so all kappa
     values are capped in the range (-0.999, 0.999). The reverse
     transformation is then applied before returning the result.
    
     mean\_quadratic\_weighted\_kappa(kappas), where kappas is a vector of
     kappa values
    
     mean\_quadratic\_weighted\_kappa(kappas, weights), where weights is a vector
     of weights that is the same size as kappas. Weights are applied in the
     z-space
     """
        kappas = np.array(kappas, dtype=float)
        if weights is None:
            weights = np.ones(np.shape(kappas))
        else:
            weights = weights / np.mean(weights)
    
        # ensure that kappas are in the range [-.999, .999]
        kappas = np.array([min(x, .999) for x in kappas])
        kappas = np.array([max(x, -.999) for x in kappas])
    
        z = 0.5 * np.log((1 + kappas) / (1 - kappas)) * weights
        z = np.mean(z)
        return (np.exp(2 * z) - 1) / (np.exp(2 * z) + 1)
    
    
    def weighted\_mean\_quadratic\_weighted\_kappa(solution, submission):
        predicted_score = submission[submission.columns[-1]].copy()
        predicted_score.name = "predicted\_score"
        if predicted_score.index[0] == 0:
            predicted_score = predicted_score[:len(solution)]
            predicted_score.index = solution.index
        combined = solution.join(predicted_score, how="left")
        groups = combined.groupby(by="essay\_set")
        kappas = [quadratic_weighted_kappa(group[1]["essay\_score"], group[1]["predicted\_score"]) for group in groups]
        weights = [group[1]["essay\_weight"].irow(0) for group in groups]
        return mean_quadratic_weighted_kappa(kappas, weights=weights)
    
    
    展开全文
  • 给出与标准相一致的,可用于键槽类零件公差一致性验证的软件量规数学等效式。它为墓于约束的参数化CAD系统中,计算机描助公差设计的评价提供了理论依据,对于促进CAD/C八M集成,特别是并行工程的发展具有重要的科学意义...
  • 在分析理化指标是否能评价葡萄酒质量的问题上,我们引入粒度一致性的概念,结合线性加权分析法与灰度关联分析,对评价问题进行粒度一致性分析.实验数据证明,葡萄和葡萄酒的理化指标对葡萄酒质量有影响,但不能全面评价...
  • 外观检验人员一致性(Kappa)分析

    千次阅读 2022-03-10 16:15:06
    三、判定方法 四、评价流程 样品选取→随机摆放→三个检验员第一次检验→隔2H→三个检验员第二次检验→隔2H→三个检验员第三次检验→数据记录→一致性分析 1.实验设计及实施 五、结果分析 分析一:检验员自身一致性...

    系列文章目录


    前言

    一、目的

    质量检验是企业非常重要的质量控制手段,为保证检验结果的准确性,采用了测量系统分析(MSA)的方式对检验员岗位技能进行评定;

    二、分析方法

    1. 根据MSA理论,在进行检验人员岗位技能评定时主要采用一致性比率,Kappa统计量进行分析及有效性、漏判率、误判率三个方面进行比较;
    2. Kappa统计量是一种对评价人内部一致性的衡量,一般可从重复性和再现性进行分析;

    三、判定方法

    在这里插入图片描述

    四、评价流程

    样品选取→随机摆放→三个检验员第一次检验→隔2H→三个检验员第二次检验→隔2H→三个检验员第三次检验→数据记录→一致性分析

    1.实验设计及实施

    在这里插入图片描述

    五、结果分析

    在这里插入图片描述

    分析一:检验员自身一致性(重复性)

    在这里插入图片描述
    结论:检验员在多个试验之间,他/她自身标准一致

    分析二:每个检验员与标准之间一致性

    在这里插入图片描述
    结论:检验员在多次试验中的评估与已知标准一致

    分析三:检验员之间(再现性)

    在这里插入图片描述
    结论:所有检验员的评估一致

    分析四:所有检验员与标准

    在这里插入图片描述
    结论: 所有检验员的评估与已知的标准一致


    总结

    分享:
    人要拥有一颗感恩的心,感恩是一种文化素养,是一种思想境界,是一种生活态度,更是一种社会责任。感谢那些帮助过我、伤害过我的人,是他们让我在成长的过程中懂得了怎么为人处世。

    展开全文
  • Kappa一致性分析

    千次阅读 2020-12-24 07:56:03
    Kappa分析,主要评价的是两种实验方法或检测手段结果的一致性程度;例如,对于幽门螺旋杆菌(Hp)的检测有C13呼气试验和病理活检等手段,其中C13呼气试验已经成为检验患者是否患有幽门螺旋杆菌感染的‘金标准’,那么...

    Kappa分析,主要评价的是两种实验方法或检测手段结果的一致性程度;例如,对于幽门螺旋杆菌(Hp)的检测有C13呼气试验和病理活检等手段,其中C13呼气试验已经成为检验患者是否患有幽门螺旋杆菌感染的‘金标准’,那么病理活检与C13呼气试验结果是否一致呢?这里就需要进行Kappa一致性分析检验。

    进行Kappa分析的表格形式:评价两种方法对90例患者检测Hp一致性程度

    下面讲解如何使用SPSS进行Kappa一致性检验:

    打开SPSS软件,在【变量视图】中输入“行信息”,“列信息”,“结果信息”(计量资料的信息录入都很类似,详细步骤可参考之前的卡方检验)

    在【数据视图】界面,按照表格在【结果】列录入数据

    对数据进行加权:【数据】→【加权个案】→【频率变量】→【确定】

    选择【分析】→【描述统计】→【交叉表】

    将“病理活检”,“C13呼气试验”依次导入【行】与【列】

    选择【统计量】,在弹出对话框中选择【Kappa】,点击【继续】,回到上级目录,点击【确定】

    在弹出的【输出文档】中

    展开全文
  • kappa系数一致性检验和配对卡方检验SPSS详细操作:一、问题与数据有两种方法可用于诊断某种癌症,A方法简单易行,成本低,患者更容易接受,B方法结果可靠,但操作繁琐,患者配合困难。某研究选择了53例待诊断的门诊...
  • 以前的多变量方差分析未能确定师生兼容与教师提名儿童作为行为障碍之间的有意义的关系。 这项研究为学校行为问题和情绪障碍是独立的疾病分类学实体的论点提供了推论支持。 人际关系是一个人情绪稳定和心理健康的...
  • 结合煤层气直井地面开发的实践,运用模糊数学方法,构建了4口工程参数一致、产气差异较大的煤层气直井储层各参数的评价隶属函数,通过计算评价值对4上煤和4号煤储层进行了综合评价,评价结果与实际煤层气产能情况一致,即...
  • 仅供参考:一、课程与量化评价所谓量化课程评价,一定是“力图把复杂的教育现象和课程现象简化为数量,进而从数量的分析与比较中推断某一评价对象的成效。”这种评价方法在20世纪60年代之前占了主导地位,这个历史...
  • Raft 一致性算法论文

    万次阅读 2019-05-17 09:52:13
    本篇博客为著名的 RAFT 一致性算法论文的中文翻译,论文名为《In search of an Understandable Consensus Algorithm (Extended Version)》(寻找一种易于理解的一致性算法)。 Raft 是一种用来管理日志复制的一致性...
  • 本文是为大家整理的可靠性评价主题相关的10篇毕业论文文献,包括5篇期刊论文和5篇学位论文,为可靠性评价选题相关人员撰写毕业论文提供参考。
  • 20世纪六十年代,人们开始了对地质灾害易发性评价的研究,九十年代后伴随着计算科学和信息量论以及模糊数学论等众多学科被引入到地质灾害的研究领域,地质灾害易发性评价由最初的定性发展逐步向定量发展转换,即以...
  • 图像质量评价意义

    千次阅读 2019-03-15 15:49:35
    图像是人类获取外界信息的主要媒介,...免的图像质量损失影响着图像信息表达的充分和 准确,影响人们的视觉感知效果[2,3]。为了降低 这些视觉可感知的图像质量损失,需量化图像质量 的退化程度,以便于在处理过...
  • 一致性维度与数据仓库

    千次阅读 2018-10-11 15:20:22
    一致性维度与数据仓库    1、一致性维度概念   维度建模的数据仓库中,有一个概念叫Conformed Dimension,中文一般翻译为“一致性维度”。一致性维度是Kimball的多维体系结构(MD)中的三个关键性概念之一,...
  • 一致性检验和配对卡方检验的SPSS实例操作图文详解,配对计数资料的卡方检验。一、问题与数据有两种方法可用于诊断某种癌症,A方法简单易行,成本低,患者更容易接受,B方法结果可靠,但操作繁琐,患者配合困难。某...
  • 为实现面向具体视觉任务提出...和基于韦伯定律的目标与背景对比度客观评价模型相比,目标邻域对比度客观评价模型在与主观评价结果的准确性、一致性和单调性方面均有显著提高,这对实际应用的图像融合系统具有现实意义
  • Raft 是一种为了管理复制日志的一致性算法。它提供了和 Paxos 算法相同的功能和性能,但是它的算法结构和 Paxos 不同,使得 Raft 算法更加容易理解并且更容易构建实际的系统。为了提升可理解性,Raft 将一致性算法...
  • 介绍了一个专用于机票工程项目中分割算法评测...图像数据库中的标准图像部分是基于主观视觉一致性的人工分割,具有评价的统计客观性。初步的应用证明该研究尤其是对算法的细微分析、提高整个工程有效性具有重要意义
  • 参数估计的无偏性、有效性以及一致性 无偏性 定义式: 无偏估计是用样本统计量来估计总体参数时的一种无偏推断。估计量的数学期望等于被估计参数的真实值,则称此此估计量为被估计参数的无偏估计,即具有无偏性,是...
  • 估计量的数学期望等于被估计参数的真实值,则称此此估计量为被估计参数的无偏估计,即具有无偏,是一种用于评价估计量优良性的准则。无偏估计的意义是:在多次重复下,它们的平均数接近所估计的参数真值。无偏估计...
  • 接下来,这篇论文会介绍以下内容:复制状态机问题(第 2 节),讨论 Paxos 的优点和缺点(第 3 节),讨论我们为了理解能力而使用的方法(第 4 节),阐述 Raft 一致性算法(第 5-8 节),评价 Raft 算法(第 9 节)...
  • 针对图像融合效果中存在的"多评价结论非一致性"问题,提出了一种基于奇异值分解的图像融合效果综合评价方法。首先对多个性能指标组成的序值矩阵进行奇异值分解,并运用一致可信度指标确定序值矩阵的近似矩阵,而近似...
  • 方法 通过问卷调查的形式对初步建立起的指标体系进行评价,利用层次分析法,对收集到的数据进行分析和处理,建立综合评价模型,并进行了一致性检验。结果 建立了暖通空调设备管理综合评价的指标体系和层级分析模型。...
  • 指标赋权与评价类方法总结

    千次阅读 2021-08-18 22:23:47
    首先需要进行一致性指标CI的计算 C I = λ m a x − n n − I CI=\frac{\lambda_{max}-n}{n-I} CI=n−Iλmax​−n​当CI=0时,判断矩阵具有完全一致性。-n越大,CI越大,则判断矩阵的一致性就越差。为了检验判断矩阵...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 40,401
精华内容 16,160
关键字:

一致性评价的意义