精华内容
下载资源
问答
  • 如果随机试验仅两个可能的结果,那么这两个结果可以用0和1表示,此时随机变量X将是一个0/1的变量,其分布是单个二值随机变量的分布,称为伯努利分布。注意伯努利分布关注的是结果只有0和1,而不管观测条件是什么。...


    一:伯努利分布/0-1分布

    如果随机试验仅有两个可能的结果,那么这两个结果可以用0和1表示,此时随机变量X将是一个0/1的变量,其分布是单个二值随机变量的分布,称为伯努利分布。注意伯努利分布关注的是结果只有0和1,而不管观测条件是什么。
    在这里插入图片描述
    推导过程:
    在这里插入图片描述

    注:就是一次实验下的结果。不是0就是1.


    二:二项分布

    本质: 就是n次实验下的伯努利分布。
    在这里插入图片描述
    期望和方差
    在这里插入图片描述


    三:泊松分布

    1.引入

    很多场合下,我们感兴趣的试验进行了很多次,但其中成功的却发生的相当稀少。例如一个芯片的生厂商想要把生产出的芯片做一番检测后再出售。每个芯片都有一个不能正常工作的微小概率p,在数量为n的一大批芯片中,出现r个故障芯片的概率是多少?

    在这里插入图片描述
    所以,当n很大、p很小的时候,这种类似的情况,不在适合用二项分布,而是泊松分布,但是泊松分布是由二项分布推导来的。

    2.推导:

    在这里插入图片描述
    在这里插入图片描述
    注:可以看到其过程还是有点复杂,借助了微积分和级数,这里了解就好,主要记住是当n很大、p很小的时候,一般用泊松分布。


    3.性质
    在这里插入图片描述
    所以参数需要>0.

    注: 这里的泰勒展开参考下面:

    在这里插入图片描述
    4.期望和方差
    在这里插入图片描述
    在这里插入图片描述

    5.应用
    在这里插入图片描述
    6.理解

    例子1:
    在这里插入图片描述
    注:n–100年、发生洪水的概率p–0.01、在这100年里发生的次数可以用泊松过程。—哈哈,终于明白了,数学可太难了。

    例子2:
    在这里插入图片描述

    例子参考:https://blog.csdn.net/xinxiangwangzhi_/article/details/107377489?biz_id=102&utm_term=%E6%B3%8A%E6%9D%BE%E5%88%86%E5%B8%83%E4%BE%8B%E5%AD%90&utm_medium=distribute.pc_search_result.none-task-blog-2allsobaiduweb~default-0-107377489&spm=1018.2118.3001.4449


    四:正态分布

    定义:
    在这里插入图片描述
    在这里插入图片描述
    期望和方差推导: 不用看----
    在这里插入图片描述
    在这里插入图片描述


    五:均匀分布

    定义:
    在这里插入图片描述
    在这里插入图片描述
    期望和方差推导:
    在这里插入图片描述


    六:指数分布

    定义:
    指数分布(Exponential distribution)是一种连续型概率分布,可以用来表示独立随机事件发生的时间间隔的概率,比如婴儿出生的时间间隔、旅客进入机场的时间间隔、打进客服中心电话的时间间隔、系统出现bug的时间间隔等等。


    推导:
    指数分布与泊松分布存在着联系,它实际上可以由泊松分布推导而来。

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述
    重要特性–无记忆性
    在这里插入图片描述
    在这里插入图片描述
    注:上面的X>s应该是X>t.
    在这里插入图片描述
    理解:
    脑子目前炸裂!!!
    参考:https://www.cnblogs.com/bigmonkey/p/12374393.html

    期望和方差:
    对于X~E(λ)的指数分布来说,它的期望是1/λ,方差是1/λ2。
    在这里插入图片描述


    参考链接:
    https://www.bilibili.com/read/cv4031613/
    https://www.cnblogs.com/bigmonkey/p/12219198.html
    https://www.cnblogs.com/bigmonkey/p/12255964.html
    https://www.cnblogs.com/bigmonkey/p/12374393.html

    展开全文
  • 所谓的 0-1 分布,大家要记住它的个特点: 随机变量 X 只取 0 或 1 两值。所以结果也只有两(概率分布是 ppp 和 1−p1-p1−p) 我们的随机试验只做 1 次 二、二项分布 和 0-1 分布有相似之处,也不同之处...

    一、0-1 分布

    所谓的 0-1 分布,大家要记住它的几个特点:

    1. 随机变量 X 只取 0 或 1 两种值。所以结果也只有两种(概率分布是 pp1p1-p
    2. 我们的随机试验只做 1 次

    二、二项分布

    和 0-1 分布有相似之处,也有不同之处。相似点在于随机变量依然也是两种 X = 0 或 1 (概率分布就是 pp1p1-p),但是不同之处在于此时我们的随机试验是做了 nn 次,其中事件 X 发生了 kk 次。

    用公式表示也很简单,设 P{A=k}P\{A = k\} 表示在 nn 次实验里面,事件A发生了 kk 次的概率,那么:P{A=k}=Cnkpk(1p)nk P\{A = k\} = C_n^kp^k(1-p)^{n-k}
    其中,pp 是事件 A 发生的概率。上式也记作:XX~B(n,p)B(n,p)

    但是二项分布在应用的时候有些困难,难在计算,当我们的 k 很大的时候,往往这个概率值是很难计算出来的

    三、泊松分布

    大家需要记忆泊松分布的概率分布函数:P{X=k}=λkk!eλ(k=0,1,2,3,) P\{X=k\} = \frac{λ^k}{k!}e^{-λ}\quad(k=0,1,2,3,\cdots)
    这里的 λ 是一个常数。泊松分布我们记为:XX~Pios(λ)Pios(λ)。这个分布在什么场景下可以用得上呢?
    一般是在生活场景:例如电话呼叫台、公交站等车、、、

    注意:下面介绍泊松分布的巨大优势,还记得我们上文说二项分布有的时候那个概率值根本算不出来。那么,其实我们有一个泊松定理:当二项分布里面的 nn 比较大(试验次数比较多),pp 比较小的时候,我们可以使用泊松分布来近似代替二项分布。(记得 nn 一定得大一点,pp 一定得小一点)

    更具体地说:如果当 np10np ≤ 10时,我们有:λ=npλ = np,使用泊松分布来求解概率。泊松分布求概率是一件不困难的事情,因为我们有泊松分布表!下面展示了表的一部分,我们看看怎么查表:

    在这里插入图片描述
    看一个例题:

    设每次击中目标的概率是0.001,且各次射击是否击中目标可以看作互相没有影响,如果射击5000次,求:
    (1)击中12次的概率

    首先我们分析啊:射击这玩意儿结果不就两个嘛——击中和击不中,因此本题是符合二项分布的。
    那么,首先设 ξξ 表示击中的数目。因此击中12次的概率就是:P{ξ=12}=C5000120.001129.999500012 P\{ξ = 12\} = C_{5000}^{12}0.001^{12}9.999^{5000-12}
    这个复杂的式子根部无法计算,但是我们别忘了泊松定理:此处,n=5000n=5000p=0.001p=0.001np=5np = 5,满足泊松定理的条件,因此,λ = np = 5,有:P{ξ=12}=51212!e5 P\{ξ=12\} = \frac{5^{12}}{12!}e^{-5}
    我们就下来就可以查表了:找到 λ=5和 k =12对应的值,就是概率。

    四、几何分布

    首先,大前提依然是伯努利试验。假设成功的概率是 pp,如果把 X 记为首次出现成功所需要的试验次数,那么,有:P{X=k}=p(1p)k1 P\{X=k\} = p(1-p)^{k-1}
    这个式子好理解:首先,我们现在是知道第 k 次试验是已经成功了,而且是首次成功。那么我们直接先把那一次成功的概率摆在第一个。反之,第 k 次试验才出现首次成功,意味着前面的 k-1 次都是不成功的。

    4.1 几何分布的无记忆性

    我们举一个有趣的例子理解一下:

    现在假如你是一名“赌徒”,来到了赌场准备“大干一场”,你正在做的是 “赌大小”,而你现在已经连续 10 次押 “大”,然而结果全部都是 “小”。这时,你会怎么想?

    如果是真赌徒,你可以会这么认为:都已经连续 10 把出现 小 了,那么之后再出现小的概率应该会很小,所以,你一口气把所有身家都投在了买 “大”。。。

    而真实情况是:你是学过 几何分布 人,因此,你想了一下:你现在参与的这次赌注,结果要么大,要么小,这似乎符合几何分布,我们把几种情况列出来看看:
    在这里插入图片描述
    事实上,在前10次都是 小 的情况下,第 11 次出现大和直接第一次就出现大的概率完全一样!即:
    P{X=11X>10}=P{X=1} P\{X=11|X>10\} = P\{X=1\}
    这就是几何分布的无记忆性。

    五、超几何分布

    举个例子引入超几何分布:
    在一箱 N 件装的产品里面混入了 M 个次品。现在从里面抽取 n 件(n≤M),问从中查到的次品的件数 ξ 的概率分布:P{ξ=k}=CMkCNMnkCNn P\{ξ = k\} = \frac{C_M^kC_{N-M}^{n-k}}{C_N^n}

    展开全文
  • 接下来,我们来看离散型随机变量的大重要分布哪些。 1. 0-1分布(伯努利分布) 0-1分布很简单,就是字面意思,即随机变量X的取值只有两个,0和1,表示每次试验的结果只有2,非A即B。比如像我们常说的抛一次...

    先简单复习下之前的内容,离散型随机变量指的是随机变量X的取值是有限的(或无穷可列的)。详细的解释可以参照这篇博文:https://blog.csdn.net/dengfangmei1216/article/details/107526615

    随机变量的学习结构如下,大家可以参考,现在我们来看离散型随机变量的几大重要分布都有哪些。
    在这里插入图片描述

    1. 0-1分布(伯努利分布)

    0-1分布很简单,就是字面意思,即随机变量X的取值只有两个,0和1,表示每次试验的结果只有2种,非A即B。

    比如像我们常说的抛一次硬币的结果,看用户是否使用某优惠券等,都是服从0-1分布的;其实,在我们的生活中任何一个只有两种结果的随机现象都服从0-1分布,记做X~B(1,p),它表示只进行一次试验,事件A发生的概率为p,不发生的概率为1-p。
    在这里插入图片描述

    2. 二项分布

    二项分布实际就是将上述的伯努利试验独立重复的进行n次,发生事件A的次数是服从二项分布的,记做X~B(n,p),其概率分布为:
    在这里插入图片描述
    其含义为做n次伯努利试验,有k次发生事件A且有n-k次不发生事件A的概率。

    3. 几何分布

    几何分布实际上和“几何”没有任何关系,据说是很久很久以前大家叫错了名字,错把这种分布叫成了几何分布,但后来懒得改了,就还是叫这个名字了。

    几何分布仍然是基于伯努利试验,但这次不是进行1次,也不是进行固定的n次,而是可以进行无穷次,那什么时候停止呢?几何分布试验结束的条件是:“首中即停止”,即一旦事件A发生则停止试验;比如:我们投篮,如果投中,则试验停止;如果一直投不中,则一直投一直投,投到天荒地老,直到投进我们的试验才算结束。还比如我们日常生活中,求灯泡坏掉的概率,其实也都是几何分布。

    在这里插入图片描述

    几何分布的概率分布为:
    在这里插入图片描述
    它的含义是:进行n次伯努利试验(n次可以是无穷大),试验k次才得到第一次成功的机率;即前k-1次事件A都不发生,第k次发生的概率。

    4. 泊松分布

    接下来就是离散型随机变量里的重中之重——“泊松分布”,之所以说它很重要,是因为它和我们的生活密切相关。

    泊松分布是用于描述某场合某单位时间内,源源不断的质点来流的个数,比如:某大型超市晚上8-9点,源源不断进入商场的顾客数是服从泊松分布的。还比如某段时间内网站的访问人数,汽车站台的候客人数,机器出现的故障数,自然灾害发生的次数等都是服从泊松分布的。
    在这里插入图片描述
    泊松分布的概率分布为:
    在这里插入图片描述
    其中λ表示强度,即源源不断来流的质子的平均速率(密度)。相当于上述例子中商场里平均每分钟来的人数。

    再举个例子,假设一本书每页的印刷错误的个数X服从泊松分布,平均每页出现错误的个数是2个,求一页书中出现4个错误的概率。在这个例子中λ=2,k=4,e=2.72,带入即可。泊松的期望和方差都是λ。
    在这里插入图片描述

    - 泊松分布与二项分布的关系

    当二项分布的n很大而p很小时,泊松分布可作为二项分布的近似,其中λ为np。通常当n≧20,p≦0.05时,就可以用泊松公式近似得计算。事实上,泊松分布正是由二项分布推导而来的,具体推导过程可参考别的资料。

    展开全文
  • 本节难度较大,主要难在那几种分布(x2x^2x2, t 分布、F分布之间的拼凑) 一、需要用到的定理或性质准备 【1】就是 x2x^2x2 分布的定义:若 Xi∼N(0,1)X_i \sim N(0,1)Xi​∼N(0,1),那么:∑i=1nXi2∼x2(n) \...

    在开始这一次 Blog 之前,我们先明确我们要干啥—— 什么是正态总体下的抽样分布?首先,就是这个总体是服从正态分布的。然后我们从总体中抽取出的这些样本所构成的统计量所服从的分布,就是我们今天需要学习的。本节难度较大,主要难在那几种分布(x2x^2, t 分布、F分布之间的拼凑)

    一、需要用到的定理或性质准备


    【1】就是 x2x^2 分布的定义:若 XiN(0,1)X_i \sim N(0,1),那么有:i=1nXi2x2(n) \sum_{i=1}^{n}X_i^2 \sim x^2(n)


    【2】接下来就是 x2x^2 分布的性质:若 Xix2(n1),Yix2(n2)X_i \sim x^2(n_1), Y_i \sim x^2(n_2),那么:Xi+Yix2(n1+n2) X_i + Y_i \sim x^2(n_1 + n_2)


    【3】关于 tt 分布的定义:若 XiN(0,1)X_i \sim N(0,1)Yix2(n)Y_i \sim x^2(n),那么:XiYi/nt(n) \frac{X_i}{\sqrt{Y_i/n}} \sim t(n)


    【4】然后就是 F 分布的定义:若 Xix2(n1)X_i \sim x^2(n_1)Yix2(n2)Y_i \sim x^2(n_2),那么:Xi/n1Yi/n2F(n1,n2) \frac{X_i/n_1}{Y_i/n_2} \sim F(n_1, n_2)


    二、启航—— 一波定理来袭

    好!我们准备好了所需要的定理和性质之后,我们下面来看看正态总体下的抽样分布的定理:

    2.1 一个正态总体


    【1】若 XiN(μ,σ2)X_i \sim N(μ, σ^2),且 XiX_i 相互独立,那么,有:XˉN(μ,σ2n)\bar{X} \sim N(μ, \frac{σ^2}{n})

    我们下面来简单证明一下:首先明确,正态分布的第一个参数是期望(均值),第二个参数是方差。
    由于 Xˉ=X1+X2++Xnn \bar{X} = \frac{X_1 +X_2 + \cdots + X_n}{n}
    因此,E(Xˉ)=1nE(i=1nXi)=1ni=1nE(Xi)=1nnμ=μE(\bar{X})=\frac{1}{n}E(\sum_{i=1}^nX_i ) =\frac{1}{n}\sum_{i=1}^nE(X_i) =\frac{1}{n}nμ = μ
    D(Xˉ)=1n2D(i=1nXi)D(\bar{X}) =\frac{1}{n^2}D(\sum_{i=1}^nX_i)这里需要特别注意:只有当 XiX_i 相互独立时,方差里面的 \sum 才可以提出来,其他情况是不允许的!!

    因此,在 XiX_i 相互独立的情况下,有:D(Xˉ)=1n2i=1nD(Xi)=1n2nσ2=σ2nD(\bar{X}) = \frac{1}{n^2}\sum_{i=1}^nD(X_i) = \frac{1}{n^2}nσ^2 = \frac{σ^2}{n}

    【2】这个定理大家要记住:(n1)S2σ2x2(n1) \frac{(n-1)S^2}{σ^2}\sim x^2(n-1)
    这里,S2S^2是修正后的样本方差:S2=1n1i=1n(XiXˉ)2S^2 = \frac{1}{n-1}\sum_{i=1}^n(X_i - \bar{X})^2

    特别注意:定理里面它所服从的卡方分布的自由度是 n-1 !!!

    【3】下面这个定理需要记忆:1σ2i=1n(Xiμ)2x2(n) \frac{1}{σ^2}\sum_{i=1}^n(X_i - μ)^2 \sim x^2(n)

    这个定理的样子看起来和定理 【2】 很像,但是这个是减去 总体的均值μ而非样本均值 Xˉ\bar{X}。我们证明一下,将上式做下面的变换:i=1n(Xiμσ)2 \sum_{i=1}^n(\frac{X_i - μ}{σ})^2
    我们已经知道:Xiμσ\frac{X_i - μ}{σ} 就是一个标准化的过程,那么有:XiμσN(0,1)\frac{X_i - μ}{σ} \sim N(0,1)
    而根据 x2x^2 分布的定义,nn 个服从标准正态分布的 XiX_i 的加和就服从 x2x^2 分布,得证。

    【4】这个定理也需要记忆:XˉμSnt(n1) \frac{\bar{X} - μ}{S}\sqrt{n} \sim t(n-1)
    下面我们来证明一下:首先,根据定理 【1】:XˉN(μ,σ2n)\bar{X} \sim N(μ, \frac{σ^2}{n}),那么我们对 Xˉ\bar{X} 做标准化,有:Xˉμσ2n=nXˉμσN(0,1) \frac{\bar{X} - μ}{\sqrt{\frac{σ^2}{n}}} = \sqrt{n}\frac{\bar{X} - μ}{σ} \sim N(0,1)
    又根据定理 【2】:(n1)S2σ2t(n1) \frac{(n-1)S^2}{σ^2} \sim t(n-1)
    最后,我们再把 tt 分布的定义搬出来:XY/nt(n)\frac{X}{\sqrt{Y/n}} \sim t(n)
    那么,我们就可以得到:nXˉμσ((n1)S2σ2)/(n1)=nXˉμσS2σ2=XˉμSnt(n1) \frac{\sqrt{n}\frac{\bar{X} - μ}{σ}}{\sqrt{(\frac{(n-1)S^2}{σ^2})/(n-1)}}=\frac{\sqrt{n}\frac{\bar{X} - μ}{σ}}{\sqrt{\frac{S^2}{σ^2}}} = \frac{\bar{X} - μ}{S}\sqrt{n} \sim t(n-1)


    2.2 两个正态总体

    两个正态总体的定理有一、、难记忆,大家克服一下!


    【1】对于两个正态总体:XN(μ1,σ12)X\sim N(μ_1 ,σ_1^2)YN(μ2,σ22)Y \sim N(μ_2, σ_2^2){X1,X2,,Xn1}\{X_1, X_2, \cdots, X_{n_1}\}是第一个总体的样本、{Y1,Y2,,Yn2}\{Y_1, Y_2, \cdots, Y_{n_2}\}是第二个总体的样本。其中,n1n_1 不一定等于 n2n_2。那么有:(XˉYˉ)(μ1μ2)σ12n1+σ22n2N(0,1) \frac{(\bar{X} - \bar{Y}) - (μ_1 - μ_2)}{\sqrt{\frac{σ_1^2}{n_1} + \frac{σ_2^2}{n_2}}} \sim N(0,1)
    别看定理很复杂,其实很容易证明,首先:XˉN(μ1,σ12n1)\bar{X} \sim N(μ_1, \frac{σ_1^2}{n_1})YˉN(μ2,σ22n2)\bar{Y} \sim N(μ_2, \frac{σ_2^2}{n_2}),那么,根据正态分布的加减性质:XˉYˉN((μ1μ2),σ12n1+σ22n2) \bar{X} - \bar{Y} \sim N((μ_1 - μ_2), \frac{σ_1^2}{n_1} + \frac{σ_2^2}{n_2})
    最后,对它标准化一下就整出来啦!!

    【2】这个性质大家需要记忆一下:S1/σ12S2/σ22F(n11,n21) \frac{S_1/σ_1^2}{S_2/σ_2^2} \sim F(n_1-1, n_2-1)

    这个定理的证明很简单,我们需要回顾一下上面在 2.2 的定理:(n1)S2σ2x2(n1) \frac{(n-1)S^2}{σ^2}\sim x^2(n-1)
    那么,我们再把 FF 分布的定义拿出来:若 Xix(n1)X_i\sim x^(n_1)Yx2(n2)Y\sim x^2(n_2),那么:Xi/n1Y/n2F(n1,n2) \frac{X_i/n_1}{Y/n_2} \sim F(n_1, n_2)
    所以,我们套用一下 F 分布的定义就可以得到啦!


    展开全文
  • 文章目录人工智能-概率论基础-2为什么使用概率不确定性可能的来源随机变量概率分布离散型变量和概率质量函数如果一个函数p是随机变量x的PMF,必须满足下面这个条件:连续型变量和概率密度函数边缘概率条件...
  • 概率论基础定义

    2018-04-18 17:00:58
    平均值是若干种可以用于描述样本的典型值或几种趋势的汇总统计量之一。均值是为了描述集中趋势,而方差则是描述分散的情况。方差的平方根叫做标准差。随机变量是可以随机地选取不通知的变量。概率分布用来描述随机...
  • 分布,在计算机学科里一般是指概率分布,是概率论的基本概念...常见的分布有:二项分布、泊松分布、正态分布、指数分布等,下面对它们进行一一介绍。 PS:本文中谈到的PDF、PMF、CDF均为公认的缩写方式: PDF:...
  • 前言 ...考虑点有几种 a,使用knn,进行1000次距离计算 (计算量太大) b,使用决策树,分布延x轴,y轴划分数据 (不会非常成功) c,计算数据点属于每个类别的概率,并进行比较 (选择这个) 2,...
  • 注:上一小节总结了离散型随机变量...最常见的一维连续型随机变量:均匀分布,指数分布和正态分布。下面还是主要从概述、定义、主要用途和Python的实现个方面逐一描述。 以下所有Python代码示例,均默认...
  • 通信原理中的个重要概念

    千次阅读 2016-07-08 11:43:09
    1. 高斯白噪声: 根据概率论的极限中心定理,大量相互均匀的、独立的微小随机变量的总和趋于高斯分布...白噪声只是一理想化的模型,实际上噪声的功率谱密度不能可能无限的带宽。 一般来说,只要噪声的功率谱密度
  • 概率论可以用两个简单的方程来表示,它们分别对应着求和法则和乘积法则。因此,们完全可以通过代数操作来建立和解决复杂的概率模型。 然而,使用概率分布的图解表示(称为概率图模型,probabilistic graphical models...
  • 统计学中常见的概率密度图像

    万次阅读 多人点赞 2018-09-01 11:43:57
    今天复习概率论与数理统计看到常见的几种分布突然了兴趣,所以尝试着写一写关于matlab画出常见几种概率密度图像(注:有些是从网上搜集整理得到的) 二项分: 二项分布,又称n重伯努力试验每次实验成功概率为p,...
  •  7.3.2 几种常用分布   7.4 分布函数及其性质   7.4.1 分布函数的定义   7.4.2 分布函数的性质   7.5 正态分布   7.5.1 正态分布的密度函数   7.5.2 正态分布分布函数   7.5.3 正态...
  • 1. Overview of Machine Learning P.S. 随手翻下教材,复习概率论的基本概念...对于一维随机变量,我们可以定义一满足单调性、界性和右连续性的实函数,称为概率分布函数;对于多维随机变量,我们可...
  • 机器学习与数学分析

    2020-06-16 17:39:39
    给定某一学习方式,按照不断地迭代,到达最低点,这样有点,损失函数最小,认为是最优参数,需要解决的个问题: 1.模型是如何建立的(线性模型还是非线性模型) 2.目标函数是如何得到的 3.在迭代过程中,如何能...
  • 数字通信(第三版)的pdf文件

    热门讨论 2010-04-01 09:26:29
    研究了几种信道衰落的统计模型,重点在于瑞利(R ayleigh)衰落和Nakagami衰落。这章还包括衰落信道的网格编码。添加的新内容包括:关于 移动无线信道衰落和多径的简要论述、符号间干扰衰落多径信道的接收机结构以及...
  • t-分布随机近邻嵌入(t-SNE) 深度自动编码器(Deep Autoencoder Networks) 集成算法(Ensemble Learning) Boosting Bagging AdaBoost 堆叠泛化(混合) GBM 算法 GBRT 算法 随机森林 其他算法 特征选择算法 ...

空空如也

空空如也

1 2 3 4 5
收藏数 91
精华内容 36
关键字:

概率论有几种分布