精华内容
下载资源
问答
  • 更多相关内容
  • 不确定性Uncertainty

    千次阅读 2018-10-14 15:21:38
    不确定或不确定性(Uncertainty)一词有多个含义。一般来说,任何没有完全和彻底了解的事物对我们来说都存在不确定性不确定性这个词有怀疑(比如“他能否按计划完成工作是不确定的”)或者缺乏知识(比如“我不...

    不确定或不确定性(Uncertainty)一词有多个含义。一般来说,任何没有完全和彻底了解的事物对我们来说都存在不确定性。不确定性这个词有怀疑(比如“他能否按计划完成工作是不确定的”)或者缺乏知识(比如“我不确定溶液是否有毒”)的意思,本文中,作者倾向于把风险和不确定性看成两个不同的词。研究对象的风险可以用风险分析的结果“风险图”来表示,并且“风险图”一般会成为决策制定的依据,当然,决策制定的依据还有很多,比如生产评估、成本利润评估等。为了能够进行好的决策,决策者必须要相信他所使用的决策依据是尽可能正确的。这样,决策者也就会有兴趣了解,他对于风险分析的结果可以有多大信心,即要了解风险分析结果的不确定性有多大。

    作者将“不确定性”定义为“对风险评估结果信心的‘量度’”,此处给“量度”加上引号是为了表示不确定性并不一定需要量化。2009年美国国家研究委员会(NRC)对“不确定性”给出的精确定义是“不确定性:信息缺乏或不完整,定量不确定性分析试图分析和描述计算值与真实值之间的差异程度,描述的方法有时候是概率分布。不确定性取决于数据的质量、数量和相关度,以及模型和假设的可靠性和相关度(NRC,2009)。

    2.不确定性的类型:

    根据需要常常将不确定性分为两大类(Armen Der Kiureghian,2007)。

    随机不确定性:随机(Aleatory)这个单词来自拉丁语alea,意思是掷骰子。

    认知不确定性:认知(Epistemic)来自希腊语episteme,意思是知识。

    2.1 随机不确定性

    随机不确定性:此种不确定性主要由自然变异和随机性引起。随机不确定性的例子包括风速、风向、降雨量、产品质量的变化、污染物在食品中的浓度等。

    随机不确定性也被称为变异(NRC,2009)、内在不确定性、偶然不确定性和不可降低不确定性。如果在相同的条件下重复一个实验若干次,而每次的结果都不尽相同,比如,抛掷一枚两面均衡的硬币1000次,我们就可以观察到随机不确定性。增加实验的数量并不能减少这些变异的出现,但是却可以让我们更加准确的描绘出结果变异的概率分布。

    例子1:考虑一个化工厂毒气泄露的事故场景,有毒气体泄露后形成毒气云其最终影响取决于实时的风向。通过对相关地点风向的长期观察,我们可以拟合出不同方向d的概率分布。在事故场景发生的时候,我们无法确定毒气云一定会吹向居民区,但是我们可以使用分布F(d)寻找事件的概率。

    2.2 认知不确定性

    认知不确定性:此种不确定性主要是由于缺乏知识引起。常见的例子包括转基因食品的健康风险以及二氧化碳排放导致全球变暖的担忧。从原理上讲,如果我们获得了有关研究对象足够的知识,就可以消除这种不确定性。鉴于随着知识增加,认知不确定性可以因此降低,所以它也可以被称为可降低的不确定性。与随机不确定性相反,认知不确定性依赖于评估者的知识水平,因此它还被称为主观不确定性。

    认知不确定性也被称为无知(ignorance)(Salvatore Modica,1997)和表象不确定性。

    无知可以分为两种:认识到的无知和没有认识到的无知。认识到的无知是指,我们知道自己不知道,并希望在进行风险分析的时候采取相应措施。而没有认识到的无知则更加危险,因为我们根本不知道自己不知道,说的更严重点,就是我们对于风险评估结果的信心可能就是一种错觉。

    例子2:现在,有很多基于纳米技术的新产品不断问世。然而许多人都在担心纳米颗粒会对他们的健康以及地球环境造成伤害。但是至少到现在(2014年),纳米技术的影响还无从所知,因此与使用这项技术相关的认知不确定性还非常高。随着人们关于纳米技术的经验越来越多,认知不确定性也就会随之降低。

    从基本的词义上看,不确定性就是简单地缺少确定性,没有必要将其分成不同的类型。然而,绝大部分分析人员都发现使用上面介绍的分类很有帮助(Winkler,1996;Anderson and Hattis,1999;Der Kiureghian and ditlevsen,2009)。现在风险分析界比较一致的看法是,在随机不确定性和认知不确定性之间并没有固定的界限。如果有新的知识出现,我们可以更加深入地解释某一情况或现象,那么与之相应的随机不确定性就降低了。归根结底,可能所有的不确定性都是认知方面的。有时候,信心(confidence)和准确性(Accuracy)这两个词被当作不确定性的反义次,也就是说,在不确定性很高的时候,我们的信心很低。David Cox在1981年给出的不确定性和变量关系的阐述是“变量是物质世界中需要被度量、分析并做出合理解释的现象,而不确定性是知识的一个方面”(David Cox,1981)。

    展开全文
  • 人工智能 4.不确定性推理方法

    万次阅读 多人点赞 2018-12-20 19:57:11
    不确定性推理的含义 基本问题 不确定性推理的类型 可信度推理模型 知识不确定性的表示: 可信度的定义: 可信度的性质 证据不确定性的表示 不确定性的更新 结论不确定性的合成 主观Bayes方法的概率论基础 ...

    目录

     

    概述

    不确定性推理的含义

    基本问题

    不确定性推理的类型

    可信度推理模型

    知识不确定性的表示:

    可信度的定义:

    可信度的性质

    证据不确定性的表示

    不确定性的更新

    结论不确定性的合成

    主观Bayes方法的概率论基础

    全概率公式

    Bayes公式

    推导

    知识不确定性的表示

    证据不确定性的表示

    不确定性的更新


    概述

    不确定性推理的含义

    泛指除精确推理以外的其它各种推理问题。包括不完备、不精确知识的推理,模糊知识的推理,非单调性推理等。

    采用不确定性推理因:

        所需知识不完备、不精确

        所需知识描述模糊

        多种原因导致同一结论

    解题方案不唯一

    基本问题

    不确定性的表示:

    (1) 知识的不确定性的表示

        含义:知识的确定性程度,或动态强度

        表示:用概率,在[0,1]区间取值,越接近于0越假,越接近于1越真

              用可信度,在[-1,1]区间取值,大于0接近于真,小于0接近于假

              用隶属度,在[0,1]区间取值,越接近于0隶属度越低,反之越高

    (2) 证据不确定性的表示

        证据的类型:按组织:基本证据,组合证据

                    按来源:初始证据,中间结论

        表示方法:概率,可信度,隶属度等

        基本证据:常与知识表示方法一致,如概率,可信度,隶属度等

        组合证据:组合方式:析取的关系,合取的关系。

                  计算方法:基于基本证据,最大最小方法,概率方法,有界方法 等。

    不确定性的匹配:

    含义

        不确定的前提条件与不确定的事实匹配

    问题

        前提是不确定的,事实也是不确定的

    方法

        设计一个计算相似程度的算法,给出相似的限度

    标志

    相似度落在规定限度内为匹配,否则为不匹配

    不确定性的更新,不确定性结论的合成:

    4. 不确定性的更新

        主要问题

        ① 如何用证据的不确定性去更新结论的不确定性

        ② 如何在推理中把初始证据的不确定性传递给最终结论

        解决方法

        对①,不同推理方法的解决方法不同

        对②,不同推理方法的解决方法基本相同,即把当前结论及其不确定性作为新的结论放入综合数据库,依次传递,直到得出最终结论

    5. 不确定性结论的合成

        含义:多个不同知识推出同一结论,且不确定性程度不同

    方法:视不同推理方法而定

    不确定性推理的类型

     

    可信度推理模型

    知识不确定性的表示:

    表示形式:

        在C-F模型中,知识是用产生式规则表示的,其一般形式为:

                IF   E   THEN   H  (CF(H, E)) 

    其中,E是知识的前提条件;H是知识的结论;CF(H, E)是知识的可信度。

        说明:

         ①  E可以是单一条件,也可以是复合条件。

         ②  H可以是单一结论,也可以是多个结论

         ③  CF是知识的静态强度,CF(H, E)的取值为[-1, 1],表示当E为真时,证据对H的支持程度,其值越大,支持程度越大。

         例子:

               IF   发烧    AND  流鼻涕   THEN   感冒   (0.8)

    表示当某人确实有“发烧”及“流鼻涕”症状时,则有80%的把握是患了感冒。

    可信度的定义:

    在CF模型中,把CF(H, E)定义为

               CF(H, E)=MB(H, E)-MD(H, E)

    式中MB称为信任增长度,MB(H, E)的定义为

    MD称为不信任增长度,MD(H, E)的定义为

        MB和MD的关系

        当MB(H, E)>0时,有P(H|E)>P(H),即E的出现增加了H的概率

        当MD(H, E)>0时,有P(H|E)<P(H) ,即E的出现降低了H的概率

        根据前面对CF(H, E)可信度 、MB(H, E)信任增长度、MD(H, E)不信增长度的定义,可得到CF(H, E)的计算公式:

    分别解释CF(H,E)>0,CF(H,E)=0,CF(H,E)<0

    可信度的性质

        (1)  互斥性

     对同一证据,它不可能既增加对H的信任程度,又同时增加对H的不信任程度,这说明MB与MD是互斥的。即:

             当MB(H, E)>0时,MD(H, E)=0

             当MD(H, E)>0时,MB(H, E)=0

    (2) 值域

        (3) 典型值

     当CF(H,E)=1时,有P(H/E)=1,它说明由于E所对应证据的出现使H为真。此时,MB(H, E)=1,MD(H, E)=0。

        当CF(H,E)= -1时,有P(H/E)=0,说明由于E所对应证据的出现使H为假。此时,MB(H, E)=0,MD(H,E)=1。

        当CF(H,E)= 0时,有MB(H, E)=0、MD(H, E)=0。E所对应证据的出现不证实、不否认H;

    4.

            (1)对H的信任增长度等于对非H的不信任增长度

            (2)对H的可信度与非H的可信度之和等于0

            (3)可信度不是概率,不满足

                  P(H)+P(﹁H)=1 和 0≤P(H),P(﹁H)≤ 1

     

     (5)对同一前提E,若支持若干个不同的结论Hi(i=1,2,…,n),则

    因此,如果发现专家给出的知识有如下情况

            CF(H1, E)=0.7,  CF(H2, E)=0.4

    则因0.7+0.4=1.1>1为非法,应进行调整或规范化。

    证据不确定性的表示

    基本证据

     表示方法,用可信度,其取值范围也为[-1,1]。例如,CF(E) ,其含义:

        CF(E)= 1,证据E肯定它为真

        CF(E)= 0,对证据E一无所知

        0<CF(E)<1,证据E以CF(E)程度为真

    否定证据

              CF(¬E)= - CF(E)

    组合证据

        合取:E=E1 AND E2 AND … En时,若已知CF(E1),CF(E2),…,则

               CF(E)=min{CF(E1), CF(E2), … ,CF(En)}

        析取:E=E1 OR  E2  OR … En时,若已知CF(E1),CF(E2),…,则

              CF(E)=max{CF(E1), CF(E2), … ,CF(En)}

    不确定性的更新

        CF模型中的不确定性推理实际上是从不确定的初始证据出发,不断运用相关的不确性知识,逐步推出最终结论和该结论可信度的过程。而每一次运用不确定性知识,都需要由证据的不确定性和知识的不确定性去计算结论的不确定性

        不确定性的更新公式

               CF(H)=CF(H, E)×max{0, CF(E)}

        若CF(E)<0,则

               CF(H)=0

    即该模型没考虑E为假对H的影响。(只考虑为真条件的影响)

        若CF(E)=1,则

               CF(H)=CF(H,E)

    规则强度CF(H,E)实际上是在E为真时,H的可信度

    结论不确定性的合成

        当有多条知识支持同一个结论,且这些知识的前提相互独立,结论的可信度又不相同时,可利用不确定性的合成算法求出结论的综合可信度。

        设有知识:IF  E1   THEN   H  (CF(H, E1))

             IF  E2   THEN   H  (CF(H, E2))

    则结论H 的综合可信度可分以下两步计算:

        (1) 分别对每条知识求出其CF(H)。即

             CF1(H)=CF(H, E1) ×max{0, CF(E1)}

             CF2(H)=CF(H, E2) ×max{0, CF(E2)}

    (2) 用如下公式求E1与E2对H的综合可信度

    例题P20

    主观Bayes方法的概率论基础

    全概率公式

    定理3.1 设事件A1,A2,…,An满足:

        (1)任意两个事件都互不相容,即当i≠j时,有Ai∩Aj=Φ  (i=1,2,…,n;j=1,2,…,n);

        (2) P(Ai)>0 (i=1, 2, … ,n);

        (3) D=


    则对任何事件B由下式成立:

       该公式称为全概率公式,它提供了一种计算P(B)的方法。

    Bayes公式

    https://blog.csdn.net/jiangjiang_jian/article/details/81346797

      定理3.2 设事件A1,A2,…,An满足定理3.1规定的条件,则对任何事件B有下式成立:

    该定理称为Bayes定理,上式称为Bayes公式。

        其中,P(Ai)是事件Ai的先验概率,P(B|Ai)是在事件Ai发生条件下事件B的条件概率;P(Ai|B)是在事件B发生条件下事件Ai的条件概率。

        如果把全概率公式代入Bayes公式,则有:

    这是Bayes公式的另一种形式。

        Bayes定理给处了用逆概率P(B|Ai)求原概率P(Ai|B)的方法。

    贝叶斯公式

    在贝叶斯写这篇文章之前,人们已经能够计算“正向概率”,如“假设袋子里面有 N 个白球,M 个黑球,你伸手进去摸一把,摸出黑球的概率是多大”。而一个自然而然的问题是反过来:“如果我们事先并不知道袋子里面黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,那么我们可以就此对袋子里面的黑白球的比例作出什么样的推测”。这个问题,就是所谓的逆向概率问题。

    P(A) A 的先验概率,之所以称为“先验”是因为它不考虑任何 B 方面的因素

    P(A|B)是已知 B 发生后 A 的条件概率,也由于得自 B 的取值而被称作 A 的后验概率。

    P(B|A)是已知 A 发生后 B 的条件概率,也由于得自 A 的取值而被称作 B 的后验概率。

    P(B) B 的先验概率,也作标淮化常量(normalizing constant)。

    贝叶斯定理可表述为:

    后验概率 = (相似度 * 先验概率)/标淮化常量

    也就是说,后验概率与先验概率和相似度的乘积成正比。

    另外,比例P(B|A)/P(B)也有时被称作标淮相似度(standardised likelihood),Bayes定理可表述为:

    后验概率 = 标淮相似度 * 先验概率

    联合概率表示两个事件共同发生(数学概念上的交集)的概率。A B 的联合概率表示为

    推导

    我们可以从条件概率的定义推导出贝叶斯定理。

    根据条件概率的定义,在事件 B 发生的条件下事件 A 发生的概率为:

    同样地,在事件 A 发生的条件下事件 B 发生的概率为:

    结合这两个方程式,我们可以得到:

    这个引理有时称作概率乘法规则。上式两边同除以 P(A),若P(A)是非零的,我们可以得到贝叶斯定理:

    根据新情况更新先验概率-修正概率

    知识不确定性的表示

    表示形式:在主观Bayes方法中,知识是用产生式表示的,其形式为:

               IF  E  THEN  (LS, LN)   H

    其中,(LS, LN)用来表示该知识的知识强度,LS(充分性度量)和LN(必要性度量)的表示形式分别为:

    LS充分性:结论成立/不成立时 条件为真概率

    LN必要性:结论成立/不成立时 条件为假概率

    根据贝叶斯:

    两式相除得(几率函数):

    为讨论方便,下面引入几率函数

    可见,X的几率等于X出现的概率与X不出现的概率之比,P(X)与O(X)的变化一致,且有:

               P(X)=0  时有  O(X)=0

               P(X)=1  时有  O(X)=+∞

    即把取值为[0,1]的P(X)放大为取值为[0,+∞]的O(X)

    以上两式联立

    再把LS代入此式,可得:

    同理可得到关于LN的公式:

    以上两式就是修改的Bayes公式

    LS的性质:

        当LS>1时,O(H|E)>O(H),说明E支持H,LS越大,E对H的支持越充分。当LS→∝时,O(H|E)→∝,即P(H/E)→1,表示由于E的存在将导致H为真。

        当LS=1时,O(H|E)=O(H),说明E对H没有影响。

     当LS<1时,O(H|E)<O(H),说明E不支持H。

     当LS=0时,O(H|E)=0,说明E的存在使H为假。

    LN的性质:

     当LN>1时,O(H|﹁E)>O(H),说明E支持H,即由于E的不出现,增大了H为真的概率。并且,LN得越大,﹁E对H为真的支持就越强。当LN→∝时,O(H|﹁E)→∝,即P(H|﹁E)→1,表示由于﹁E的存在将导致H为真。

        当LN=1时,O(H|﹁E)=O(H),说明﹁E对H没有影响。

        当LN<1时,O(H|﹁E)<O(H),说明﹁E不支持H,即由于﹁E的存在,使H为真的可能性下降,或者说由于E不存在,将反对H为真。当LN→0时O(H|﹁E) →0,即LN越小,E的不出现就越反对H为真,这说明H越需要E的出现。

        当LN=0时,O(H|﹁E)=0,说明﹁E的存在(即E不存在)将导致H为假。

     

    LS与LN的关系

     由于E和﹁E不会同时支持或同时排斥H,因此只有下述三种情况存在:

        ① LS>1且LN<1                       

        ② LS<1且LN>1                      

        ③ LS=LN=1

    证据不确定性的表示

    基本证据的表示:

       在主观Bayes方法中,基本证据E的不精确性是用其概率或几率来表示的。

    概率与几率之间的关系为:

    以概率情况为例,对初始证据E,用户可以根据当前观察S将其先验概率P(E)更改为后验概率P(E|S),即相当于给出证据E的动态强度

    组合证据不确定性的计算:

       证据的基本组合方式只有合取和析取两种。(合取min,析取max)

     当组合证据是多个单一证据的合取时,例

              E=E1  AND   E2  AND  …  AND  En

     如果已知在当前观察S下,每个单一证据Ei有概率P(E1|S), P(E2|S), … ,P(En|S),则

          P(E|S)=min{ P(E1|S), P(E2|S), … ,P(En|S)}

     当组合证据是多个单一证据的析取时,例

                 E=E1  OR   E2  OR  …  OR  En

        如果已知在当前观察S下,每个单一证据Ei有概率P(E1|S), P(E2|S), … ,P(En|S),则

      P(E|S)=max{ P(E1|S), P(E2|S), … ,P(En|S)}

    不确定性的更新

    根据E的概率P(E)及LS和LN的值,把H的先验概率P(H)或先验几率O(H)更新为后验概率或后验几率。

        分以下3种情况讨论:

        1. 证据肯定为真

        2. 证据肯定为假

    3. 证据既非为真有非为假

    证据肯定为真时

     当证据E肯定为真时,P(E)=P(E|S)=1。将H的先验几率更新为后验几率的公式:

              O(H|E)=LS×O(H)

     把H的先验概率P(H)更新为后验概率P(H|E)的公式

     

    证据既非真假:需要使用杜达等人给出的公式:

    P(H|S)=P(H|E)×P(E|S)+P(H|﹁E)×P(﹁E|S)                              (3.7)

     

     

        下面分四种情况讨论:

        (1)P(E|S)=1

        当P(E|S)=1时,P(﹁E|S)=0。

    这实际是证据肯定存在的情况

        (2)P(E|S)=0

        当P(E|S)=0时,P(﹁E|S)=1。

        (3)P(E|S)=P(E)

        当P(E|S)=P(E)时,表示E与S无关。由(3.7)式和全概率公式可得

        (4) P(E/S)为其它值

    上面已经得到了P(E|S)的3个特殊值:0,P(E),1;它们分别对应的3个值为P(H|﹁E),P(H),P(H|E)。由此构造的分段线性插值函数为:

     

    展开全文
  • 海森堡提出了著名的“不确定性原理”:一个运动粒子的位置和它的动量不可被同时确定。 我是物理科学的民科,下面关于物理学的内容是个人的理解,望各位同学指正。 1 测不准原理 “不确定性原理”有另外一个名字:...

    维尔纳·海森堡(1901-1976),德国物理学家,量子力学创始人之一,“哥本哈根学派”代表性人物。

    海森堡提出了著名的“不确定性原理”:一个运动粒子的位置和它的动量不可被同时确定。

    我是物理科学的民科,下面关于物理学的内容是个人的理解,望各位同学指正。


    1 测不准原理

    “不确定性原理”有另外一个名字:“测不准原理”。

    1926年,海森堡任聘为哥本哈根大学尼尔斯·波耳研究所的讲师,协助尼尔斯·波耳做研究。隔年,他发表了论文《论量子理论运动学与力学的物理内涵》(On the physical content of quantum theoretical kinematics and mechanics):

    在这篇论文里提到,使用显微镜来测量粒子的位置,需要通过测量光子,会不可避免地搅扰了粒子的动量,造成动量的不确定性:

    海森堡紧跟着给出“测不准原理”:越精确地知道位置,则越不精确地知道动量,反之亦然。

    看过一本科普书,举了个例子:房间内有一个皮球,但是你蒙着眼睛,为了寻找皮球的位置,就用脚去试探。当用脚确定球的位置的时候,球必然被踢到,动量也就必然被改变。

    看了对“测不准原理”的解释,我其实不太能接受,产生原因是因为技术限制?

    那以后要是技术不限制了,是不是“测不准原理”得出的一系列推论全部要推翻?

    比如,现在工艺的限制,没有办法在质子上面刻电路图,可是《三体》里面提到把质子降维之后展开,可以在上面刻画电路图,生产出“智子”。虽然是科幻小说,万一以后实现了呢?


    2 波粒二象性

    往下面讲之前,先解释下什么是波粒二象性。

    关于光子、电子,我们的认知经历了几个阶段:

    • 粒子

    • 波粒二象性

    2.1 粒子

    经典的波尔模型,把电子和质子、中子都看成一个个的粒子:

    2.2 波

    著名的“双缝干涉”实验,光子经过双缝之后,会在荧幕上形成水波特有的干涉条纹:

    更详细的可以参看这个影片:

    出处:"双缝干涉"实验

    这个实验说明,光子有波的特性。

    2.3 波粒二象性

    为了综合这两个模型,有了波粒二象性,就是说光子、电子,既是波、又是粒子,真让人糊涂啊。

    路易·维克多·德布罗意,第七代布罗意公爵(1892-1987),简称路易·德布罗意。

    德布罗意在1924年完成了博士论文《量子理论研究》。在这篇论文里,他详细地解释他所创建的的电子波理论。这包括了,根据阿尔伯特·爱因斯坦和马克斯·普朗克对于光波的研究,而推论出来的关于物质的波粒二象性:任何物质同时具备波动和粒子的性质。

    由于论文的题目与内容相当先进,让当时许多学者都直摇头,因为这份报告的创造了一个新观念,而德布罗意的老师朗之万其实也很难相信这个论点,但论文的内容实在是太过让人惊叹,不能确定是否有瑕疵,所以寄给爱因斯坦一份,寻求他的意见。

    爱因斯坦那时候很忙,正在研究玻色-爱因斯坦统计,抽不出时间仔细阅读,只能稍微翻了一下。立刻,他意识到这论文很有重量,乐意为波粒二象性背书,兴奋地回信:“他已经掀起了面纱的一角”!并且将论文送去柏林科学院,因而使得这理论广知于物理学界。德布罗意获得了梦寐以求的博士学位。后来,埃尔温·薛定谔从这篇论文里,得到很多宝贵的灵感。既然电子是波动,那么,什么是电子的波动方程?两年后,薛定谔发表了薛定谔方程,也从此开启了量子力学的新纪元。

    德布罗意是这么解释波粒二象性的,他说光子是以概率波的形态存在的。

    比如说,下面是正态分布,横坐标表示的是位置:

    光子会在正态分布的范围内活动:

    但具体在哪并不太清楚,只知道在下面这个区域内发现光子的概率为:

    下面这个动图描述的是,光子在空中传播的时候,弥漫在整个空间,这也是概率波的意思,在每个位置都有可能出现。但是撞到墙上后就表现的像一个粒子了:

    出处:波粒二象性


    3 不确定性原理

    现在,“测不准原理”被正名为了“不确定性原理”。“不确定性原理”是事物的内在属性,跟测量没有关系。

    重复下,“不确定性原理”的意思是:一个运动粒子的位置和它的动量不可被同时确定。

    首先看位置和动量怎么来求?

    3.1 位置与动量

    刚才说了光子的位置是一个正态分布:

    那么动量怎么计算呢?

    德布罗意指出,粒子的动量可以如下计算:

    其中,为粒子动量,为普朗克常数,为概率波的波长。

    波长和频率很容易转换:

    其中,为概率波的波长,为波速,为频率。

    这些粒子的波速一般可以认为是光速,所以:

    问题就变成了,怎么确定频率?傅立叶变换啊!

    3.2 傅立叶变换

    为了计算方便,假设,因此光子位置的正态分布的代数形式为:

    进行傅立叶变换,就可以得到频域分布:

    通过傅立叶变换和逆变换,位置分布和频域分布可以相互转换:

    画出频域分布图来就是这样:

    把位置分布图和频域分布图放在一起,可以看出一些端倪:

    当位置分布图越窄,频域分布图越宽:

    位置分布图越窄的意思是,光子的能活动的范围越窄,也就是说越确定光子的位置。

    换句话说,越来确定光子的位置,越不能确定光子的频率(动量)。

    咦,这不就是不确定性原理:越精确地知道位置,则越不精确地知道动量,反之亦然。

    易知,当频域分布图越窄,位置分布图越宽:

    原来傅立叶变换就蕴含了不确定性原理啊。

     

    展开全文
  • 信息与不确定性

    千次阅读 2019-07-20 14:43:45
    “信息是可以量化的,用事件的不确定性表示”, “增加相关信息,会减小其不确定性”。 咱们先搞清楚以下五个概念,他们是层层递进的。 信息量 信息熵 交叉熵 相对熵 互信息 一、信息量 咱们一起来玩一玩Yes...
  • 在大多情况下,我们只关心类别的预测 有多准,根本 care 置信度是怎样的。然而,在一些实际应用场景下,置信度的度量也同样重要。 例如 对于自动驾驶中的目标识别任务,车辆的前方出现了一个人,神经网络会将其...
  • prophet Uncertainty Intervals不确定性区间

    千次阅读 多人点赞 2019-08-08 09:30:18
    例子代码 https://github.com/lilihongjava/prophet_demo/tree/master/uncertainty_intervals # encoding: utf-8 """ @author: lee @time: 2019/8/6 9:22 @file: main.py @desc: """ from fbprophet import ...
  • 人工智能之不确定推理方法

    万次阅读 2017-11-24 13:51:44
    人工智能之不确定推理方法 现实世界中的大多数问题是不精确、非...不确定性推理过程实际上是一种从不确定的初始证据出发,通过运用不确定性知识,最终推出具有一定不确定性但却又是合理或基本合理的结论的思维过程。
  • 然后模型对少量已标记的数据进行训练,训练完成后再次要求对最不确定数据进行更多的标记。通过对不确定的样本进行优先排序,模型可以让专家(人工)集中精力提供最有用的信息。这有助于模型更快地学习,并让专家跳过...
  • 前言 传播同一则信息,信息的量好像弹性空间很大,我们应该如何测一测这个信息的量呢...信息熵代表了一个黑盒子中的不确定性,或者说,要搞清楚这个黑盒子的秘密所需要的信息。(例子:怎么用鼓点准确传达消息呢?方...
  • 不确定性有限自动机

    万次阅读 2018-06-08 13:25:24
    NFA:NFA即不确定性有限自动机(nondeterminism finite automaton),它允许我们在遇到一个状态时可以有多条转移路径可以选择。特殊的是,它允许我们不读入任何字符就进行状态转移(此操作称为...
  • GitChat 作者:吴穹 AdamWu 这篇文章将先介绍 Cynefin 框架,一个领导者决策框架。领导者要面对显然...目前,创新过程中最大问题就在于领导者将适用于显然和繁杂领域的确定性管理思维直接照搬到复杂和混沌领域。
  • 本文介绍主动学习Active Learning中的第一种query selection framework—— 不确定度采样Uncertainty Sampling。
  •   2019-02-12 23:53:35 ...通常,除了想知道我们的机器学习模型的房价预测是什么之外,我们还想知道为什么它是这么高/低,以及哪些特征在确定预测时最重要。另一个例子是预测客户流失 - 拥有一个...
  • 因此,实现具有最小不确定性的确定性延迟依赖于将TX和RX设备中的LMFC尽可能紧密地对齐。   为了实现确定性延迟协议的适当性能,系统实现者必须遵守以下要求:  多帧的长度必须大于任何链路上可能存在的...
  • 本文中,我们用卷积神经网络中衡量不确定性的最新成果,并从质量和数量上衡量这些成果在遥感图像上下文的表现。我们用不同的深度模型(包括基于块的模型,像素级到像素级模型及它们的结合)分类德国Vaihingen一系列...
  • 区块链的确定性问题

    千次阅读 2019-05-04 07:51:22
    结算的确定性问题是最近公有链与许可链之间的一个主要战场。看起来中心化的系统至少有一个优点,即所谓的“确定性”("finality"):操作一旦完成,就永远完成了,系统永不可能再回退回去撤销这个操作。而去中心化的...
  • 确定性函数(Deterministic)

    万次阅读 2018-02-10 14:20:57
    确定性函数用关键词Deterministic标识,表示函数的返回值完全由输入参数决定。确定性函数有以下用处:1.可以在基于函数的索引中使用该函数;2.可以在物化视图中调用;3.Oracle11g开始会对其参数及其返回结果进行缓存...
  • 生活中有趣的概率论例子

    千次阅读 2020-12-24 11:49:27
    生活中有趣的概率论例子 生活中有趣的概率论例子 钱进王洪曾 东北大学,辽宁沈阳“0 D 0 0 概率论是数学的一个分支,它研究随机现象的数量规律,概率集。随机试验、样本空间与随机事件的关系就是每一个随机试验 论的...
  • 不确定性下的判断:启发法和偏见

    千次阅读 2014-09-30 11:52:40
    代表: 1.对结果的先验概率敏感 2.对样本
  • 今天来聊聊不确定性和确定性, 没有提纲, 写到哪里算哪里。 不确定性有两种: 一种是绝对的不确定性, 这也是世界的本来面目。所有的人, 都不能确定它(或者也可以广义地认为,困难到所有人都无法确定它)。 举个...
  • 对浮点数处理,涉及编译器、硬件等对浮点数2进制表示的细节一致,都有可能,对同一输入的浮点数计算,产生不同的结果。 但是如果你愿意做大量的工作,让你的编译器“严格”符合IEEE 754编译模型以及限制你所...
  • 对应同系列博客:《人工智能》之《确定性推理》 《人工智能》之《确定性推理》习题解析1 什么是图搜索过程?其中,重排OPEN表意味着什么,重排的原则是什么?2 试举例比较各种搜索方法的效率3 化为子句形有哪些步骤...
  • Javaweb之简单例子(一)

    万次阅读 多人点赞 2018-07-21 10:33:06
    Javaweb 之简单例子(一) 目录: 一、简述 ...
  • 测试用例模板和例子

    万次阅读 2018-11-09 16:25:09
    测试用例是“一组输入、执行条件、预期结果”、毫无疑问地应该包括清晰的输入数据和预期输出,没有测试数据的用例最多只具有指导的意义,具有可执行。当然,测试用例中包含输入数据会带来维护、与测试环境同步...
  • 这几个概念可以用“原因的可能”和“结果的可能”的“先后顺序”及“条件关系”来理解。下面举例: 隔壁老王要去10公里外的一个地方办事,他可以选择走路,骑自行车或者开车,并花费了一定时间到达目的地。在这...
  • 回溯算法经典例子

    千次阅读 2019-06-30 16:51:16
    当 i时,检查可行,深度优先搜索可行子树。 代码: public class NQueen { static int n ; //皇后个数 static int [ ] x ; //当前解 static long sum ; //可行方案数 ...
  • Java多态详细举例说明(很经典例子

    万次阅读 多人点赞 2014-09-04 16:37:28
    运行时多态是面向对象程序设计代码重用的一个最强大机制,Java多态的概念也可以被说成“一个接口,多个方法”。Java实现运行时多态的基础是动态方法调度,它是一种在运行时而不是在编译期调用重载方法的机制。...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 636,902
精华内容 254,760
关键字:

不确定性的例子

友情链接: silk_remington.zip