精华内容
下载资源
问答
  • 2019-06-07 16:32:10

    不确定性推理的含义

    什么是不确定性推理

    不确定性推理是指建立在不确定性知识和证据基础上的推理。例如,不完备、不精确知识的推理,模糊知识的推理等。实质上是一种从不确定的初试证据出发,通过运用不确定性知识,最终推出具有一定程度不确定性但却又是合理或基本合理的结论的思维过程

    为什么采用不确定性推理

    • 所需知识不完备、不精确:不完备是指在解决某一问题时,不具备解决该问题的全部知识。不精确是指既不能完全确定知识为真,又不能完全确定知识为假
    • 所需知识描述模糊:指知识的边界不清晰,例如常说的“好”、“很好”、“比较好”
    • 多种原因导致同一结论:例如导致人发烧的原因有许多种。
    • 解题方案不唯一:现实生活中的问题一般都存在着多种不同的解决方案,而这些方案直接又很难绝对地判断其优劣

    不确定性推理的基本问题

    不确定性的表示

    不确定性的表示包括知识的不确定性表示和证据的不确定性表示。

    知识不确定性的表示

    通常需要考虑两个方面的问题:

    1. 能够比较准确的描述问题本身的不确定性
    2. 便于推理过程中不确定性的计算

    知识的不确定性通常是用一个数值来描述的,该数值表示相应知识的确定性程度,也称为知识的静态强度

    证据的不确定性表示

    推理中的证据有两种来源:

    1. 用户在求解问题时所提供的初始证据,如病人的症状等
    2. 在推理中得出的中间结果

    通常,证据的不确定性应该与知识的不确定性表示保持一致,以便推理过程能对不确定性进行统一处理。

    不确定性的匹配

    推理过程实质上是不断寻找和运用可用知识的过程可用知识是指其前提条件可与综合数据库中的已知事实相匹配的知识。

    那么怎样去匹配呢?目前常用的解决方案是,设计一个用来计算匹配双方相似程度的算法,并给出一个相似的限度,如果匹配双方的相似程度落在规定的限度内,则称双方是可匹配的。

    组合证据不确定性的计算

    在不确定性的系统中,知识的前提条件既可以是简单的单个条件,也可以是复杂的组合条件。匹配时,一个简单条件只对应与一个单一的证据,一个符合条件将对应于一组证据,而结论的不确定性是通过对证据和知识的不确定性进行某种运算而得到的。所以,当知识的前提条件为组合条件时,需要有合适的算法来计算复合证据的不确定性。

    不确定性的更新

    由于证据和知识都是不确定的。那么就存在两个问题:

    1. 如何利用证据和知识的不确定性去更新结论的不确定性
    2. 在推理过程中,如何把初始证据的不确定性传递给最终结论

    对于第一个问题,一般的做法是按照某种算法由证据和知识的不确定性计算出结论的不确定性

    对于第二个问题,做法一般是把当前推出的结论及其不确定性作为新的证据放入综合数据库

    不确定性结论的合成

    推理过程中,很可能会出现由多个不同知识推出同一结论并且推出的结论的不确定性程度又各不相同的情况

    不确定性推理的类型

    按照是否采用数值来描述不确定性来区分:

    1. 数值方法:一种用数值对不确定性进行定量表示和处理的方法。
    2. 非数值方法:除数值方法以外的其他各种对不确定性进行表示和处理的方法。

    对于数值方法,又可以根据其所依据的理论分为两种不同类型:

    1. 基于概率论的有关理论发展起来的方法,如确定性理论、主观Bayes方法、证据理论和概率推理等;
    2. 基于模糊逻辑理论发展起来的方法,如模糊推理。
    更多相关内容
  • 不确定度与协方差矩阵的关系

    千次阅读 2019-06-20 17:43:12
    一些地方看到“使用协方差矩阵表示某个状态的不确定度”,不太理解协方差矩阵和不确定度有什么关系,一直认为协方差矩阵是描述一个样本的不同维度的关联关系不确定度是描述一个状态的值的不确定程度,为什么...

    常在一些地方看到“使用协方差矩阵表示某个状态的不确定度”,不太理解协方差矩阵和不确定度有什么关系,一直认为协方差矩阵是描述一个样本的不同维度的关联关系,不确定度是描述一个状态的值的不确定程度,为什么协方差矩阵可以用来表示不确定度呢?

    不确定度的定义如下:

    不确定度的含义是指由于测量误差的存在,对被测量值的不能肯定的程度。

    表征合理地赋予被测量之值的分散性,与测量结果相联系的参数。

    此参数可以是诸如称为标准测量不确定度的标准偏差(或其特定倍数),或是说明了包含概率的区间半宽度。

    当测量结果是由若干个其他量的值求得时, 按其他各量的方差和协方差算得的标准不确定度, 称为合成标准不确定度。

    合成标准不确定度仍然是标准偏差, 它表征了测量结果的分散性。

    由上可知,标准偏差是描述随机变量围绕均值的分散程度的,是可以用来表示不确定度的,而标准偏差的平方就是方差,那方差也是可以反映不确定度的。注意,不确定度不是误差,误差是测量值减去真实值。


    协方差的定义如下:

    在概率论和统计学中,协方差用于衡量两个变量的总体误差。

    协方差表示的是两个变量总体误差的期望。

    单个随机变量的方差表示分布的分散程度,2个随机变量的协方差可以理解为它们一致的分散程度,其中,“一致”体现在2个随机变量分别对应于各自的均值同时正向/负向变化的程度,对应名字中的“协”,“分散”体现在相对于各自均值的偏离,对应名字中的“方差”。因此,协方差包含了误差和相关性2重特性,协方差是相关性导致的方差,也就和不确定度产生了微妙的联系。


    不确定度 <------> 标准偏差 <------> 方差 <-----> 协方差

    当有随机变量x,y,u=ax+by,即u是x与y的线性组合。则有

    记u=P*S,其中,P=[a b], S=transpose([x y]), 则有Var(u) = P*C*transpose(P)。这里强调一下,计算的结果就是变量u的方差!!这个式子就可以和卡尔曼滤波器中的预测误差协方差矩阵的计算联系起来了,而这个预测误差协方差矩阵,就反映了预测结果的不确定性。

    如果u与xy不是线性关系,就把u=f(x,y)泰勒一阶展开,上式中的P就换为f对x,y求偏导,即雅各比矩阵,就演化为了扩展卡尔曼滤波器


    总结下来,我的理解就是协方差矩阵是可以反映测量结果的不确定度的,正如方差发挥的作用一样。同时,因为其附加体现的相关性,这个不确定度就是一个椭圆,相关性体现在沿椭圆的长轴不确定性更大,沿短轴不确定性较小。并且,在推导误差或不确定度沿模型(就是f(x,y))传递时,协方差矩阵发挥了基础且重要的作用。

    展开全文
  • 推理是人工智能经典三大基本技术之一,是人类求解问题的主要思维方法。 本文重点内容包括:不确定性推理的概念及分类;不确定性推理中的基本问题;概率方法及贝叶斯公式;可信度方法;模糊推理


    一、 概述

    人工智能经典三大基本技术为:知识表示、推理、搜索策略。推理是人类求解
    问题的主要思维方法。

    无论是人类智能还是人工智能,都离不开不确定性的处理。
    可以说,智能主要反映在求解不确定性问题的能力上。
    因此,不确定性推理模型是人工智能和专家系统的一个核心研究课题。

    为方便记忆和回顾,根据个人学习,总结人工智能基础知识和思维导图形成系列。

    二、 重点内容

    • 不确定性推理的概念及分类
    • 不确定性推理中的基本问题
    • 概率方法及贝叶斯公式
    • 可信度方法
    • 模糊推理

    三、 思维导图

    人工智能导论(4)——不确定性推理

    四、 重点知识笔记

    1. 不确定性推理概述

    1.1 概念

    不确定性推理是指从不确定性的初始证据出发,通过运用不确定性的知识
    推出具有一定程度的不确定性但却合理或近乎合理的结论的思维过程。

    不精确性是科学认识中的重要规律,也是进行机器智能推理的主要工具之一。

    1.2 分类

    不确定性推理方法主要分为控制方法和模型方法两类。

    • 模型方法
      • 数值模型方法
        • 基于概率
          • 概率方法(纯概率法应用受限)
          • 贝叶斯方法
          • 可信度方法
          • 证据理论
        • 基于模糊理论
          • 模糊方法
      • 非数值模型方法
        • 发生率计算方法
    • 控制方法
      • 尚没有统一模型。相关性指导、机缘控制、启发式搜索、随机过程控制等

    控制方法

    控制方法没有处理不确定性的统一模型,其效果极大地依赖于控制策略。

    不确定性推理的控制方法主要取决于控制策略,包括相关性指导、机缘控制、启发式
    搜索、随机过程控制等。

    模型方法

    模型方法具体可分为数值模型方法和非数值模型方法两类。按其依据的理论不同,
    数值模型方法主要有基于概率的方法和基于模糊理论的推理方法。

    纯概率方法虽然有严格的理论依据,但通常要求给出事件的先验概率和条件概率,
    而这些数据又不易获得,因此使其应用受到限制。在概率论的基础上提出了一些
    理论和方法,主要有可信度方法、证据理论、基于概率的贝叶斯推理方法等。

    目前,在人工智能中,处理不确定性问题的主要数学工具有概率论和模糊数学。

    目前常用的不确定性推理的数学方法主要有基于概率的似然推理(Plausible Reasoning)、基于模糊数学的模糊推理(FuzzyReasoning)、可信度方法,
    以及使用人工神经网络算法、遗传算法的计算推理等。

    1.3 基本问题

    所有的不确定性推理方法都必须解决3个问题:

    (1)表示问题

    表示问题指的是采用什么方法描述不确定性。

    在专家系统中,“知识不确定性”一般分为两类:一是规则的不确定性,二是证据的不确定性。

    • 一般用(E→H, f(H,E))来表示规则的不确定性,f(H,E)即相应规则的不确定性程度,称为规则强度。
    • 一般用(命题E, C(E))表示证据的不确定性,C(E)通常是一个数值,代表相应证据的不确定性程度,称为动态强度。

    规则和证据不确定性的程度常用可信度来表示。

    在专家系统MYCIN 中,可信度表示规则及证据的不确定性,取值范围为[−1, 1]

    • 当可信度取大于零时,其数值越大,表示相应的规则或证据越接近于“真”;
    • 当可信度小于零时,其数值越小,表示相应的规则或证据越接近于“假”。

    (2)语义问题

    语义问题指上述表示和计算的含义是什么,即对它们进行解释。即需要对规则和证据的
    不确定性给出度量。

    • 对于证据的不确定性度量C(E),需要定义在下述3种典型情况下的取值:
      • E为真,C(E)=?
      • E为假,C(E)=?
      • 对E一无所知,C(E)=?
    • 规则的不确定性度量f(H,E),需要定义在下述3种典型情况下的取值:
      • 若E为真,则H为真,这时f(H,E)=?
      • 若E为真,则H为假,这时f(H,E)=?
      • E对H没有影响,这时f(H,E)=?

    (3)计算问题

    计算问题主要指不确定性的传播和更新。即计算问题定义了一组函数,求解结论的
    不确定性度量。

    主要包括3方面:

    • 不确定性的传递算法
      • 已知前提E的不确定性C(E)和规则强度f(H,E)求结论H的不确定性
      • 即定义函数f1,使得C(H)=f1(C(E),f(H,E))
    • 结论不确定性合成
      • 由两个独立的证据E1和E2求得的假设H的不确定性C1(H)和C2(H),求证据E1和E2的组合导致的假设H的不确定性
      • 即定义函数C(H)=f2(C1(H),C2(H))
    • 组合证据的不确定性算法
      • 已知证据E1和E2的不确定性C1(E)和C2(E),求证据E1和E2的析取和合取的不确定性
      • 即定义函数C(E1∧E1)=f3(C(E1),C(E2));C(E1∨E2)=f4(C(E1),C(E2))

    组合证据的不确定性的计算已经提出了多种算法,用得最多的是如下3种:

    • 最大最小法
      • C(E1∧E2) = min{C(E1),C(E2)}
      • C(E1∨E2) = max{C(E1),C(E2)}
    • 概率方法
      • C(E1∧E2) = C(E1)×C(E2)
      • C(E1∨E2) = C(E1)+C(E2)−C(E1)×C(E2)
    • 有界方法
      • C(E1∧E2) = max{0, C(E1)+C(E2)−1}
      • C(E1∨E2) = min{1, C(E1)+C(E2)}

    2. 概率方法

    有完善的理论,被最早用于不确定性知识的表示和处理。但因条件概率不易给出、计算量
    大等原因,应用受了限制。

    2.1 基础知识

    (1)条件概率定义

    P(B|A)=P(AB)/P(A)称为事件A发生的条件下事件B的条件概率

    (2)全概率公式

    设事件A1,A2,…,An互不相容,其和为全集。则对于任何事件B:P(B)=Σ(P(Ai)×P(B|Ai))

    一般的,如果一个集合含有我们所研究问题中涉及的所有元素,那么就称这个集合为
    全集,通常记作U。

    (3) 贝叶斯公式

    设事件A1,A2,…,An互不相容,其和为全集。则对于任何事件B:
    P(Ai|B)=P(Ai)×P(B|Ai)/P(B)

    贝叶斯公式可以用条件概率公式证明:

    推导:
    P(Ai|B) = P(AiB)/P(B)         #条件概率公式
            = P(Ai)×P(B|Ai)/P(B)  #分子代入条件概率公式
    
    证明:
    P(Ai|B) = P(Ai)×P(B|Ai)/P(B)
            = P(AiB)/P(B)         #分子代入条件概率公式
            = P(Ai|B)             #条件概率公式
    

    用全概率公式代入贝叶斯公式,可以得到贝叶斯公式的另一种形式:

    P ( A i ∣ B ) = P ( A i )   P ( B ∣ A i ) Σ i [ P ( A i ) P ( B ∣ A i ) ] P(A_i|B)=\frac{P(A_i)\ P(B|A_i)}{\Sigma_i [P(A_i)P(B|A_i)]} P(AiB)=Σi[P(Ai)P(BAi)]P(Ai) P(BAi)

    其中:

    • P(Ai)是事件Ai的先验概率
    • P(B|Ai)是在事件Ai发生条件下事件B的条件概率
    • P(Ai|B)是在事件B发生条件下事件Ai的后验概率。
    • 先验概率是指根据以往经验和分析得到的概率。
    • 后验概率指某件事已经发生,计算这件事发生的原因是由某个因素引起的概率(根据结果求原因的概率)。

    2.2 经典概率方法

    (1)单条件

    • 设有产生式规则:IF E THEN Hi (其中,E为前提条件,Hi为结论)
    • 用条件概率:P(Hi|E) 表示证据E条件下,Hi成立的确定性程度

    (2)复合条件

    • 对于复合条件: E = E1 AND E2 AND … AND Em
    • 用条件概率:P(Hi|E1,E2,…,Em) 表示E1,E2,…,Em出现时,结论Hi的确定性程度

    2.3 逆概率方法

    在实际中,求条件E出现情况下结论Hi的条件概率P(Hi|E)非常困难。
    但是求逆概率P(E|Hi)要容易的多。

    比如:E 代表咳嗽,以Hi代表支气管炎

    • P(Hi|E),咳嗽的人中有多少是患支气管炎,统计工作量较大
    • P(E|Hi),患支气管炎的人有多少咳嗽,统计就容易多了

    如果前提条件E表示,用Hi表示结论,用贝叶斯公式就可得到:

    P ( H i ∣ E ) = P ( H i )   P ( E ∣ H i ) Σ i [ P ( H i ) P ( E ∣ H i ) ] P(H_i|E)=\frac{P(H_i)\ P(E|H_i)}{\Sigma_i [P(H_i)P(E|H_i)]} P(HiE)=Σi[P(Hi)P(EHi)]P(Hi) P(EHi)

    当已知Hi的先验概率,结论Hi成立时E的条件概率P(E|Hi)就可以求Hi的条件概率。

    多个证据E1,E2,…,Em和多个结论H1,H2,…,Hn,则可以进一步扩充为:

    P ( H i ∣ E 1 , E 2 , . . . , E m ) = P ( H i ) P ( E 1 ∣ H i ) P ( E 2 ∣ H i ) . . . P ( E m ∣ H i ) Σ [ P ( H i ) P ( E 1 ∣ H i ) P ( E 2 ∣ H i ) . . . P ( E m ∣ H i ) ] P(H_i|E_1,E_2,...,E_m) = \frac{P(H_i)P(E_1|H_i)P(E_2|H_i)...P(E_m|H_i)}{Σ[P(H_i)P(E_1|H_i)P(E_2|H_i)...P(E_m|H_i)]} P(HiE1,E2,...,Em)=Σ[P(Hi)P(E1Hi)P(E2Hi)...P(EmHi)]P(Hi)P(E1Hi)P(E2Hi)...P(EmHi)

    3. 可信度方法

    可信度是指人们根据以往的经验对某个事物或现象为真的程度的一个判断,或者说是人们对某个事物或现象为真的相信程度。

    3.1 可信度的基本概念

    3.1.1 可信度的定义

    可信度最初定义为信任与不信任的差。

    CF(H,E) = MB(H,E)-MD(H,E)

    CF(Certainty Factor,确定性因子)是由证据E得到假设H的可信度。

    MB(Measure Belief)称为信任增长度,表示E的出现使结论H为真的信任值增长程度。

    • MB(H,E) = 1 当P(H)=1时
    • MB(H,E) =(max(P(H|E),P(H)}-P(H))/(1-P(H)) 其他情况

    MD(Measure Disbelief)称为不信任增长度

    • MD(H,E)=1 当P(H)=0时
    • MD(H,E) =(min(P(H|E),P(H)}-P(H))/(-P(H)) 其他情况

    根据以上定义,可以得到:

    • CF(H,E)=MB(H,E)-0 当P(H|E)>P(H)时
    • CF(H,E)=0 P(H|E)=P(H)时
    • CF(H,E)=0-MD(H,E) 当P(H|E)<P(H)时

    ** 3.1.2 可信度的性质**

    (1)互斥性

    • 当MB(H,E)>0时, MD(H,E)=0
    • 当MD(H,E)>0时, MB(H,E)=0

    (2)值域

    • 0≤MB(H,E)≤1
    • 0≤MD(H,E)≤1
    • -1≤CF(H,E)≤1

    (3)典型值

    • CF(H,E)=1时,P(H|E)=1, MB(H,E)=1, MD(H,E)=0
    • CF(H,E)=-1时,P(H|E)=0, MB(H,E)=0, MD(H,E)=1
    • CF(H,E)=0时,P(H|E)=P(H),MB(H,E)=0, MD(H,E)=0,表示E对H无影响

    (4)H的信任增长度等于非H的不信任增长度

    • MB(H,E) = MD(¬H,E)
    • MD(H,E) = MB(¬H,E)

    (5)H的可信度对非H的可信度之和等于0

    • CF(H,E)+CF(¬H,E) = 0

    (6)可信度与概率的区别

    • 概率:P(H)+P(¬H)=1 且 0≤P(H),P(¬H)≤1
    • 可信度:-1≤CF(H,E)≤1

    **(7)对于同一前提E,若支持多个不同的结论Hi,则

    • ΣCF(Hi,E) ≤1

    实际应用中,P(H)和 P(H|E)的值很难获得,因此CF(H,E)的值由领域专家给出。

    3.2 可信度模型

    3.2.1 规则的不确定性的表示

    可信度(CF)模型中,规则用产生式规则表示:

    IF E THEN H (CF(H,E))
    

    3.2.2 证据的不确定性表示

    可信度(CF)模型中,证据E的不确定性也用可信度因子CF表示,取值范围为[-1,1],典型值为:

    • 证据E肯定为真: CF(E)=1
    • 证据E肯定为假: CF(E)=-1
    • 证据E一无所知: CF(E)=0

    3.2.3 组合证据的不确定性的计算

    • E=E1 AND E2 AND … AND En
      • CF(E) = min({CF(E1),CF(E2),…,CF(En)}’
    • E=E1 OR E2 OR … OR En
      • CF(E) = max({CF(E1),CF(E2),…,CF(En)}

    3.2.4 否定证据的不确定性计算

    • CF(¬E) = -CF(E)

    3.2.5 不确定性推理

    1. 证据肯定存在,即CF(E)=1时,则CF(H)=CF(H,E)
    2. CF(E)≠1时,则CF(H)=CF(H,E)×max{0,CF(E)}
      • CF(E)<0时,CF(H)=0
    3. 多条相互独立的规则分别推出相同结论,结论合成综合可信度算法
      • 分别对每个规则用第二步公式求出CF,即CF1(H),CF2(H)…
      • 对E1、E2求综合可信度
        • CF(H) = CF1(H)+CF2(H)-CF1(H)×CF2(H) 当CF1,CF2≥0时
        • CF(H) = CF1(H)+CF2(H)+CF1(H)×CF2(H) 当CF1,CF2<0时
        • CF(H) = CF1(H)+CF2(H) 当CF1,CF2异号时
      • 对于多条规则,依次合成,直到结束。

    可信度模型的特点:

    • 简洁、直观、容易理解
    • 可能和条件概率得出的值相反、计算的累积可能导致一个规则和多个规则计算结果不同、组合规则顺序不同可能结果不同

    4. 模糊推理

    4.1 模糊数学的基本知识

    4.1.1 模糊集合

    (1)定义

    集合元素对集合的隶属程度称为隶属度,用 µ 表示。

    • µ=1,表示元素属于集合
    • µ=0,表示元素不属于集合

    模糊集合用“隶属度/元素”的形式来记:
    A = µ 1 / x 1 + µ 2 / x 2 + . . . + µ n / x n = ∫ μ A ( x ) / x A = µ1/x1 + µ2/x2 + ... + µn/xn =\int μA(x)/x A=µ1/x1+µ2/x2+...+µn/xn=μA(x)/x

    (2)模糊集合相等

    A=B,当且仅当:∀x,μA(x)=μB(x)

    (3)模糊集合包含

    B包含A,当且仅当:∀x∈U,μA(x)≤μB(x)

    A,B均是论域U上的模糊集合,即A,B中的元素∈U,下同

    (4)模糊集合并、交、补

    • µ(A∪B)(x) = max(µA(x), µB(x)) ∀x∈U
      • 也记为:µA(x) ∨ μB(x) ∨表示取极大
    • µ(A∩B)(x) = min(µA(x), µB(x)) ∀x∈U
      • 也记为:µA(x) ∧ μB(x) ∧表示取极小
    • µ(¬A)(x) = 1-(µA(x) ∀x∈U

    (5)模糊集合的积

    A、B分别是论域U、V上的模糊集合。即A中的元素为x∈U,B中的元素为y∈V

    • A×B = ∫(μA(x) ∧ μA(y))/(x,y)

    相乘之后元素变为(x,y)值对

    4.1.2 模糊关系及运算

    (1)模糊关系定义

    论域U到V上的模糊关系R:指U×V上的一个模糊集合:

    • 集合元素为有序对<x,y>
    • 集合隶属函数为μR(x,y)

    模糊关系 R 通常用矩阵表示:

    以U=V={1,2,3}为例:

    x\y123
    100.10.6
    2000.1
    3000
    模糊关系矩阵
    R=[[0, 0.1, 0.6],
       [0,   0,  0.1],
       [0,   0,   0]]
    

    (2)模糊关系的合成

    • R 是 U×V 上的模糊关系
    • S 是 V×W 上的模糊关系
    • U×W(叉积)上的模糊关系T=R৹S

    模糊关系T的隶属函数为:

    T=∪(μR(x,y) ∧ μS(y,z))

    示例:

     R=[0.3, 0.7, 0.2]    #1x3
     S=[0.2,
        0.6,
        0.9]              #3x1
     
     T=(0.30.2)(0.70.6)(0.20.9) = 0.6 
    

    4.2 模糊假言推理

    4.2.1 模糊规则的表示

    模糊命题的一般形式:x is A 或者 x is A(CF)

    模糊规则产生式的一般形式: IF E THEN R(CF,λ)

    • E:用模糊命题表示的模糊条件
    • R:用模糊命题表示的模糊结论
    • CF:该产生式规则所表示的知识的可信度因子,由领域专家在给出规则时同时给出
    • λ:阈值,用于指出相应知识在什么情况下可被应用

    模糊规则示例:

    IF x is A THEN y is B(λ)
    IF x is A THEN y is B(CF, λ)
    IF x1 is A1 AND x2 is A2 THEN y is B(λ)
    IF x1 is A1 AND x2 is A2 AND x3 is A3 THEN y is B(CF, λ)
    

    4.2.2 证据的模糊匹配

    规则的前提条件中的 A 与证据中的 A′ 不一定完全相同,推理时需要先考虑他们的相似程度是否大于某个预先设定的阈值λ。

    贴近度是一种表示接近程度的计算方法。A,B的贴近度定义为:

    (A,B) = 0.5[ A·B + (1-A⊙B) ]
    其中:
    A·B = ∨( μA(xi) ∧ μA(xi))
    A⊙B = ∧( μA(xi) ∨ μA(xi))
    
    “∧”表示取极小,“∨”表示取极大
    

    4.2.3 简单模糊推理

    模型:

    • IF x is A THEN y is B(λ)
    • 证据:x is A’ 且(A,A’)≥λ
    • 结论:y is B’

    推理步骤:

    1. 构造A、B之间的模糊关系R
      • R的典型构造方法扎德法
    2. 合成R与前提,B’=A’৹R
    3. 得出结论

    个人总结,部分内容进行了简单的处理和归纳,如有谬误,希望大家指出,持续修订更新中。

    修订历史版本见:https://github.com/hustlei/AI_Learning_MindMap

    展开全文
  • 不确定性Uncertainty

    千次阅读 2018-10-14 15:21:38
    不确定不确定性(Uncertainty)一词有多个含义。一般来说,任何没有完全和彻底了解的事物对我们来说都存在不确定性。不确定性这个词有怀疑(比如“他能否按计划完成工作是不确定的”)或者缺乏知识(比如“我...

    不确定或不确定性(Uncertainty)一词有多个含义。一般来说,任何没有完全和彻底了解的事物对我们来说都存在不确定性。不确定性这个词有怀疑(比如“他能否按计划完成工作是不确定的”)或者缺乏知识(比如“我不确定溶液是否有毒”)的意思,本文中,作者倾向于把风险和不确定性看成两个不同的词。研究对象的风险可以用风险分析的结果“风险图”来表示,并且“风险图”一般会成为决策制定的依据,当然,决策制定的依据还有很多,比如生产评估、成本利润评估等。为了能够进行好的决策,决策者必须要相信他所使用的决策依据是尽可能正确的。这样,决策者也就会有兴趣了解,他对于风险分析的结果可以有多大信心,即要了解风险分析结果的不确定性有多大。

    作者将“不确定性”定义为“对风险评估结果信心的‘量度’”,此处给“量度”加上引号是为了表示不确定性并不一定需要量化。2009年美国国家研究委员会(NRC)对“不确定性”给出的精确定义是“不确定性:信息缺乏或不完整,定量不确定性分析试图分析和描述计算值与真实值之间的差异程度,描述的方法有时候是概率分布。不确定性取决于数据的质量、数量和相关度,以及模型和假设的可靠性和相关度(NRC,2009)。

    2.不确定性的类型:

    根据需要常常将不确定性分为两大类(Armen Der Kiureghian,2007)。

    随机不确定性:随机(Aleatory)这个单词来自拉丁语alea,意思是掷骰子。

    认知不确定性:认知(Epistemic)来自希腊语episteme,意思是知识。

    2.1 随机不确定性

    随机不确定性:此种不确定性主要由自然变异和随机性引起。随机不确定性的例子包括风速、风向、降雨量、产品质量的变化、污染物在食品中的浓度等。

    随机不确定性也被称为变异(NRC,2009)、内在不确定性、偶然不确定性和不可降低不确定性。如果在相同的条件下重复一个实验若干次,而每次的结果都不尽相同,比如,抛掷一枚两面均衡的硬币1000次,我们就可以观察到随机不确定性。增加实验的数量并不能减少这些变异的出现,但是却可以让我们更加准确的描绘出结果变异的概率分布。

    例子1:考虑一个化工厂毒气泄露的事故场景,有毒气体泄露后形成毒气云其最终影响取决于实时的风向。通过对相关地点风向的长期观察,我们可以拟合出不同方向d的概率分布。在事故场景发生的时候,我们无法确定毒气云一定会吹向居民区,但是我们可以使用分布F(d)寻找事件的概率。

    2.2 认知不确定性

    认知不确定性:此种不确定性主要是由于缺乏知识引起。常见的例子包括转基因食品的健康风险以及二氧化碳排放导致全球变暖的担忧。从原理上讲,如果我们获得了有关研究对象足够的知识,就可以消除这种不确定性。鉴于随着知识增加,认知不确定性可以因此降低,所以它也可以被称为可降低的不确定性。与随机不确定性相反,认知不确定性依赖于评估者的知识水平,因此它还被称为主观不确定性。

    认知不确定性也被称为无知(ignorance)(Salvatore Modica,1997)和表象不确定性。

    无知可以分为两种:认识到的无知和没有认识到的无知。认识到的无知是指,我们知道自己不知道,并希望在进行风险分析的时候采取相应措施。而没有认识到的无知则更加危险,因为我们根本不知道自己不知道,说的更严重点,就是我们对于风险评估结果的信心可能就是一种错觉。

    例子2:现在,有很多基于纳米技术的新产品不断问世。然而许多人都在担心纳米颗粒会对他们的健康以及地球环境造成伤害。但是至少到现在(2014年),纳米技术的影响还无从所知,因此与使用这项技术相关的认知不确定性还非常高。随着人们关于纳米技术的经验越来越多,认知不确定性也就会随之降低。

    从基本的词义上看,不确定性就是简单地缺少确定性,没有必要将其分成不同的类型。然而,绝大部分分析人员都发现使用上面介绍的分类很有帮助(Winkler,1996;Anderson and Hattis,1999;Der Kiureghian and ditlevsen,2009)。现在风险分析界比较一致的看法是,在随机不确定性和认知不确定性之间并没有固定的界限。如果有新的知识出现,我们可以更加深入地解释某一情况或现象,那么与之相应的随机不确定性就降低了。归根结底,可能所有的不确定性都是认知方面的。有时候,信心(confidence)和准确性(Accuracy)这两个词被当作不确定性的反义次,也就是说,在不确定性很高的时候,我们的信心很低。David Cox在1981年给出的不确定性和变量关系的阐述是“变量是物质世界中需要被度量、分析并做出合理解释的现象,而不确定性是知识的一个方面”(David Cox,1981)。

    展开全文
  • 不确定

    万次阅读 2019-11-23 17:13:54
    一、测量不确定度来源 任何测量值都不是绝对准确的,最初使用误差来衡量 测量值与真值之间的差异。 误差=随机误差+系统误差, 由于各种因素的存在,每次测量时 测量值与真值之间的差异应该有所同,但会介于...
  • 信息与不确定

    千次阅读 2019-07-20 14:43:45
    “信息是可以量化的,用事件的不确定性表示”, “增加相关信息,会减小其不确定性”。 咱们先搞清楚以下五个概念,他们是层层递进的。 信息量 信息熵 交叉熵 相对熵 互信息 一、信息量 咱们一起来玩一玩Yes...
  • 人工智能 4.不确定性推理方法

    万次阅读 多人点赞 2018-12-20 19:57:11
    不确定性推理的含义 基本问题 不确定性推理的类型 可信度推理模型 知识不确定性的表示: 可信度的定义: 可信度的性质 证据不确定性的表示 不确定性的更新 结论不确定性的合成 主观Bayes方法的概率论基础 ...
  • 信息熵---信息不确定

    千次阅读 2016-12-06 11:35:41
    不确定性越大,则信息量越大,熵越大 若不确定性越小,则信息量越小,熵越小 比如A班对B班,胜率一个为x,另一个为1-x 则信息熵为 -(xlogx + (1-x)log(1-x)) 求导后容易证明x=1/2时取得最大,最大值为2 也...
  • 不确定集(Uncertainty set)笔记

    千次阅读 2020-10-06 09:30:09
    为了权衡二者的关系,如何选择一个适合的不确定集来求解鲁棒优化一直是相关学者的研究热点。常见的不确定集主要有如下几类: 1)盒式不确定集(Box Uncertainty Set) 盒式不确定集是最简单的不确定集,也被称作...
  • 信息熵(不确定性)的理解与解释

    千次阅读 2019-10-16 21:43:30
    熵越高,说明事件的不确定性越大。而信息不确定性越大时,该信息的价值越高。 总结: 1、某随机事件结果的种类越多,该事件的熵越大 2、某随机事件的各种可能发生的结果概率越均匀,该事件的熵越大 ...
  • 人工智能导论笔记-第四章-不确定性推理方法

    万次阅读 多人点赞 2019-02-09 20:35:11
    不确定推理:  推理:从已知事实(证据)出发,通过运用相关知识逐步推出结论或证明某个假设成立或不成立的思维过程  不确定推理:从不确定的初始证据出发,通过运用不确定的性的知识,最终推出一个具有一定程度...
  • 难点在于,培训没有新增成立之前,不确定组织者需要报名页面上收集参加报名人员的哪些信息,就是说每次培训需要报名者填写的信息不确定,具体要填写哪些,姓名、年龄、国籍、星座等完全视组织者的需求而定。...
  • 不确定性世界中的行为预测

    千次阅读 2021-01-08 17:07:26
    桔妹导读:自动驾驶系统中的行为预测模块主要负责预判其他交通参与者未来一段时间的行为,其困难主要源自现实世界和人类行为的高度不确定性。本文列举了现实环境中的不同场景,讨论了两种不同预测方法...
  • 通常,如果需要,建议为关系提供属性,因为将ER模型转换为关系模型时,事情可能会变得复杂,我们可能需要创建一个单独的表来表示关系。让我们看看各种情况,以及何时需要借助示例为关系赋予属性: 1.一对一...
  • 处理不确定数据的方法研究

    千次阅读 2016-01-25 11:41:35
    成果简介: ...本研究针对不确定性的数学理论、算法及应用开展了多层次研究:随机性数据处理方面,应用已有的成熟算法对实际生活中常见的不确定性现象开展分析,包括了多维标度法亲属关系中的分析应
  • 发生之后可能会受到干扰的是不确定性数学方法 发生之后就能确定结果的是确定性数学方法概率与随机数学 概率论(古典概型) 随机过程(受随机因素的影响) 马氏链模型 排队论与随机排队论(排队等待,流动周转,...
  •  1,确定关联字段表中是否唯一 select id, count(1) num from tab_A group by id having num > 1 若有返回,则说明该字段唯一 若没有返回,则说明该字段唯一 select id, count(1) num from tab_B group ...
  • 前序和后序本质上都是将父节点与子结点进行分离,但并没有指明左子树和右子树的能力,因此得到这两个序列只能明确父子关系,而确定一个二叉树。由二叉树的中序和前序遍历序列可以唯一确定一棵二叉树 ,由前序...
  • 最近做项目遇到一个挺操蛋的问题,由于业务的关系,DB的数据表无法确定使用过程中字段可能会增加,这样insert时给我造成了很大的困扰。先来看一下最终我是怎么实现的: <![CDATA[ INSERT INTO tg_fcst_...
  • 利用协方差,皮尔逊相关系数和斯皮尔曼相关系数确定变量间的关系 https://www.toutiao.com/i6550915552490029576/ 数据集中的变量之间可能存在复杂且未知的关系。重要的是发现和量化数据集的变量相关的程度。这些...
  • 软件项目管理中,任务之间的关系有那几种,如何确定活动之间的关系? 任务之间共有四种关系,下面分别举例说明如下:1.FS(完成-开始)关系 a.必须先完成任务1,然后任务2才能开始。 b.如任务1"录入",任务...
  • 关系数据库系列文章之到底什么是关系(一)

    千次阅读 多人点赞 2018-08-05 02:28:45
    语言X中如何实现Y,像这种具体的只是(know-how)可快速提高你的工作效率。但是一旦语言发生变化,这种知识就无法再使用。... 作为程序员,日常的开发中,我们避免了的就要接触数据库这个概念,而关系...
  • 独立正交相关定义关系

    万次阅读 2018-06-01 16:00:40
    一、“独立”、“相关”和“正交”的定义假设X为一个随机过程,则t1和t2时刻的随机变量的...正交仅仅描述确定函数之间的关系,也用以描述随机过程。两个随机过程X(t) Y(t)正交,即E[X(t)Y(t)]=0, 若E[X(t)Y(t)...
  • 根据候选码判断关系F中的函数关系是否满足第二范式,若满足则为关系模式的规范化最高为第一范式 然后判断是否存在非主属性传递依赖,如果存在则满足第二范式,如果存在则关系模式的规范化最高为第三范式. 通俗...
  • 已知同一组点不同坐标系下的坐标(例如有点ABCDEF六个点坐标系1下的坐标A1,B1,C1,D1,E1,F1同时又已知ABCDEF六个点坐标系2下的坐标A2,B2,C2,D2,E2,F2),如何求解两个坐标系之间的转换关系? 问题解决: 方法...
  • 有限自动状态机可以分为确定的和不确定的。“确定性”将下文详讲。“有限”性表示存在一个结束状态。“自动”体现当前状态能够根据输入符号而转换到下一个状态。这里的“输入符号”下文中讲到。“状态机”可以...
  • 但是函数关系不确定,就是需要自己定义函数关系,然后自己调试函数中需要的参数的值。 刚开始思路是自定义一个函数关系式,然后用pso求解最优参数,其最后输出的y的值为下图所示,输入有三个自变量,x1,x2,x3. ...
  • (2)关系模式

    万次阅读 多人点赞 2019-08-24 22:04:48
    1.关系模式数据结构 ①关系 ②属性 ③值域 ④元组 ⑤分量 ⑥关系模式 ⑦关系数据库 ⑧各种码以及主属性 2.关系模型操作 3.关系模型完整性约束 ①实体完整性约束 ②参照完整性 ③用户定义完整性 关系...
  • 人工智能 3.确定性推理方法

    万次阅读 多人点赞 2018-12-20 19:40:04
    鲁宾逊归结原理使定理证明能够计算机上实现 知识+推理=智能 归结演绎:谓词公式化为子句集、鲁宾逊归结原理、归结反演 推理的基本概念 已知事实(数据库)+知识 --通过策略à结论 推理方式及其分类:演绎...
  • 再说说TCP和UDP源端口的确定

    万次阅读 2018-09-22 13:42:53
    到达杭州已经两周了,基本已经...本周来说一个老话题,即 一个TCP连接如何确定自己的源端口。这个问题几年前就分析过,正好前些天一个朋友又问了,我就又进一步进行了思考,觉得正好可以作为本周的话题来讨论一...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,181,426
精华内容 472,570
关键字:

在不确定的关系里