精华内容
下载资源
问答
  • 项分布概率公式的理解

    千次阅读 2015-03-21 14:27:00
    项分布概率公式的理解   多项分布二项分布的推广。二项分布(也叫伯努利...二项分布时事件X只有2种取值,而多项分布的X有多种取值,多项分布的概率公式为 P(X1=x1,⋯,Xk=xk)={n!x1!,⋯,xk!px1⋯pxkwhen∑k...

    多项分布概率公式的理解

     

    多项分布是二项分布的推广。二项分布(也叫伯努利分布)的典型例子是扔硬币,硬币正面朝上概率为p, 重复扔n次硬币,k次为正面的概率即为一个二项分布概率。而多项分布就像扔骰子,有6个面对应6个不同的点数。二项分布时事件X只有2种取值,而多项分布的X有多种取值,多项分布的概率公式为  

    P(X1=x1,,Xk=xk)={n!x1!,,xk!px1pxkwhenki=1xi=n0otherwise.

     这个公式看上去像是莫名其妙地冒出来的,想要了解它首先必须要知道组合数学中的多项式定理。

     

    多项式定理:n是一个正整数时,我们有  

    (x1+x2++xk)n=n!r1!r2!rk!xr11xrkk

      其中r1++rk=n,ri0

     

     

    这个多项式定理的推导如下,将式子左边展开  

     

    (x1+x2++xk)n=(x1+x2++xk)(x1+x2++xk)

     

    这样的话,我们可以把问题看成在n个式子里,先选取r1x1,然后选取r2x2,最后选取rkxk,然后求有多少种方法。类似把n个球放到k个不同的盒子里的方法有多少种,我们得到  

    Cr1,r2,rkn=Cr1nCr2nr1Crknr1rk1=n!r1!r2!rk!

       所以xr11xr22xrkk的系数为Cr1,r2,rkn,这样,我们就能得到展开式的通式。举个例子,当k=2时,我们就得到了常见的二项式公式:

    (a+b)n=i=0nCinaibni

     

    再来看之前的多项分布的概率公式,假设X1,X2,,Xk发生的概率为p1,p2,,pk,由于事件之间是相互独立的,可得p1+p2++pk=1。 我们将p1+p2++pk=1式子的左边看做一次抽样各种事件发生的概率和,那么(p1+p2++pk)n=1n=1则是进行了n次抽样所有事件相互组合的对应概率和。把这个多项式展开,它的每一项都对应着一个特殊事件的出现概率。我们把展开式的通项作为X1出现x1次,X2出现x2次,…,Xk出现xk次的这种事件的出现概率,这样就得到了多项分布的概率公式。


    展开全文
  • P=sum(binopdf([475:525],n,p)) %用二项分布的计算 P1=normcdf((525-n*p)/sqrt(n*p*(1-p)))-normcdf((475-n*p)/sqrt(n*p*(1-p))) %正态分布的计算 P2=1-(n*p*(1-p))/25^2 %用切比雪夫不等式计算
  • 本次实验主要是通过随机生成的符合Binomial分布的随机数,以验证其概率计算公式的正确性,其公式定义如下: P(X∣n,k)=(kn)pk(1−p)(n−k) P(X|n,k) = (_k^n)p^k(1-p)^{(n-k)} P(X∣n,k)=(kn​)pk(1−p)(n−k) 其中...

    1 实验目的

    本次实验主要是通过随机生成的符合Binomial分布的随机数,以验证其概率计算公式的正确性,其公式定义如下:
    P(Xn,k)=(kn)pk(1p)(nk) P(X|n,k) = (_k^n)p^k(1-p)^{(n-k)}

    其中,(kn)=Cnk=n(n1)(n2)...(nk)=n!k!(nk)!(_k^n)=C_n^k=n(n-1)(n-2)...(n-k)=\frac{n!}{k!(n-k)!}即n中k种可能的全排列。

    2 实验原理

    实验分为两步:
    第1步,通过 test1() 证明Javar提供的 Random.nextInt()能够提供平均分布的函数。
    第2步,利用 Random.nextInt(n) 设计函数 boolean test(double p) 返回概率这p的事件是否可以发生,然后随机生成数据,验证 kn 的关系。

    3 实验过程

    编写了Java代码,参见附录,实现了整个过程。

    4 实验结果

    4.1 平均分布验证 test1()

    函数 test1() 主要用于验证 Random.nextInt(n) 生成的随机数是否符合正态分布。
    通过,使用源代码的 test1() 函数,生成2亿个数据,得到以下结果:

    ******************** 结果列表 ********************
    counters[0] = 9999557
    counters[1] = 9995208
    counters[2] = 9999310
    counters[3] = 9999332
    counters[4] = 9999267
    counters[5] = 9999526
    counters[6] = 9998762
    counters[7] = 9999090
    counters[8] = 10004129
    counters[9] = 10004558
    counters[10] = 10002649
    counters[11] = 9996725
    counters[12] = 9999594
    counters[13] = 10000538
    counters[14] = 10000581
    counters[15] = 10005193
    counters[16] = 9997375
    counters[17] = 10000347
    counters[18] = 9998698
    counters[19] = 9999561
    ******************** 统计数据 ********************
    平均值: 10000000
    标准差: 10928.38
    偏差比: 0.001093
    

    偏差比只有约千分之一,所以可以得到结论:生成的函数符合平均分布。

    4.2 Binomial公式数据生成验证 test2()

    通过使用函数 test2() 可以得到以下数据:

    • size = 1000万
    ******************** Binomial 实验(n=20, size=10m) ********************
    k值	发生次数		实际概率		理论概率		概率偏差比
    0	12		0.000001	0.000001	25.829120%
    1	199		0.000020	0.000019	4.333312%
    2	1826		0.000183	0.000181	0.773672%
    3	10759		0.001076	0.001087	1.038340%
    4	46095		0.004610	0.004621	0.239194%
    5	147249		0.014725	0.014786	0.411657%
    6	370519		0.037052	0.036964	0.236669%
    7	740837		0.074084	0.073929	0.209481%
    8	1200126		0.120013	0.120134	0.101348%
    9	1601530		0.160153	0.160179	0.016318%
    10	1762175		0.176218	0.176197	0.011605%
    11	1602306		0.160231	0.160179	0.032128%
    12	1200108		0.120011	0.120134	0.102846%
    13	739723		0.073972	0.073929	0.058796%
    14	369674		0.036967	0.036964	0.008071%
    15	147952		0.014795	0.014786	0.063801%
    16	45972		0.004597	0.004621	0.505396%
    17	10893		0.001089	0.001087	0.194196%
    18	1835		0.000184	0.000181	1.270366%
    19	204		0.000020	0.000019	6.954752%
    20	6		0.000001	0.000001	37.085440%
    
    • size = 1亿
    ******************** Binomial 实验(n=20, size=100m) ********************
    k值	发生次数		实际概率		理论概率		概率偏差比
    0	95		0.000001	0.000001	0.385280%
    1	1846		0.000018	0.000019	3.216435%
    2	18026		0.000180	0.000181	0.517732%
    3	108707		0.001087	0.001087	0.010920%
    4	462541		0.004625	0.004621	0.105138%
    5	1478587		0.014786	0.014786	0.000699%
    6	3696003		0.036960	0.036964	0.011867%
    7	7387746		0.073877	0.073929	0.069490%
    8	12014555	0.120146	0.120134	0.009320%
    9	16015085	0.160151	0.160179	0.017660%
    10	17622246	0.176222	0.176197	0.014420%
    11	16017554	0.160176	0.160179	0.002246%
    12	12019029	0.120190	0.120134	0.046562%
    13	7390142		0.073901	0.073929	0.037080%
    14	3698042		0.036980	0.036964	0.043294%
    15	1479722		0.014797	0.014786	0.077462%
    16	461158		0.004612	0.004621	0.194177%
    17	108729		0.001087	0.001087	0.009316%
    18	18185		0.000182	0.000181	0.359761%
    19	1899		0.000019	0.000019	0.437709%
    20	103		0.000001	0.000001	8.003328%
    
    

    5 结论

    通过结果,我们可以看到:
    1)公式计算结果与实际结果几乎一致;
    2)1亿次较1000万次的结果误差更小,符合大数中心定律;
    3)k值两端的分布偏差相对中心较大是由于数据量偏小造成的。

    附录:源代码

    package tests;
    
    import java.util.Random;
    
    public class V20210120_BinorialDistributionTest {
    
    	static Random rand = new Random();
    
    	public static void main(String[] args) {
    		test1();
    		// test2();
    	}
    
    	static long factorial(int n) {
    		if (n < 2)
    			return 1;
    
    		long v = 1;
    		for (int i = 1; i <= n; i++)
    			v *= i;
    		return v;
    	}
    
    	static long permutation(int n, int k) {
    		// n! / (n-k)!/k!
    		return factorial(n) / factorial(n - k) / factorial(k);
    	}
    
    	private static void test2() {
    		int size = 100000000;
    		int n = 20;
    		double p = 0.5;
    		int[] counters = new int[n + 1];
    		for (int i = 0; i < size; i++) {
    			counters[binomial(n, p)]++;
    		}
    		double[] actualValues = new double[n + 1];
    		double[] theoryValues = new double[n + 1];
    
    		// show(counters);
    
    		for (int i = 0; i < theoryValues.length; i++) {
    			actualValues[i] = counters[i] * 1.0 / size;
    			theoryValues[i] = permutation(n, i) * Math.pow(p, i) * Math.pow(1 - p, n - i);
    		}
    
    		System.out.printf("******************** Binomial 实验(n=%d, size=%dm) ********************\n", n, size/1000000);
    		System.out.println("k值\t发生次数\t\t实际概率\t\t理论概率\t\t概率偏差比");
    		for (int i = 0; i < theoryValues.length; i++) {
    			System.out.printf("%d\t%d\t\t%.6f\t%.6f\t%.6f%%\n", i, counters[i], actualValues[i], theoryValues[i],
    					Math.abs(100 * (theoryValues[i] - actualValues[i]) / theoryValues[i]));
    		}
    	}
    
    	public static int binomial(int n, double p) {
    		int occurredTimes = 0;
    		for (int i = 0; i < n; i++)
    			occurredTimes += test(p) ? 1 : 0;
    		return occurredTimes;
    	}
    
    	public static boolean test(double p) {
    		return rand.nextInt(10000) < 10000 * p;
    	}
    
    	/**
    	 * 通过随机1亿个[0,100)的随机数证明Java的随机数是符合平均分布的。
    	 */
    	public static void test1() {
    		int[] counters = new int[20];
    		int testTimes = 100_000_000;
    		for (int i = 0; i < testTimes; i++) {
    			counters[rand.nextInt(counters.length)]++;
    		}
    
    		show(counters);
    	}
    
    	static void show(int[] arr) {
    		System.out.println("******************** 结果列表 ********************");
    		for (int i = 0; i < arr.length; i++)
    			System.out.printf("counters[%d] = %d\n", i, arr[i]);
    
    		System.out.println("******************** 统计数据 ********************");
    		double avg = mean(arr);
    		double sigma = varience(arr);
    		System.out.printf("平均值: %.0f\n", avg);
    		System.out.printf("标准差: %.2f\n", sigma);
    		System.out.printf("偏差比: %.6f\n", sigma / avg);
    	}
    
    	private static double varience(int[] arr) {
    		double avg = mean(arr);
    		double sigma = 0;
    		for (int i = 0; i < arr.length; i++)
    			sigma += Math.pow(arr[i] - avg, 2);
    
    		return Math.sqrt(sigma);
    	}
    
    	public static double mean(int[] arr) {
    		double mean = 0;
    		for (int i = 0; i < arr.length; i++)
    			mean += arr[i];
    		return mean / arr.length;
    	}
    }
    
    
    展开全文
  • https://blog.csdn.net/michael_r_chang/article/details/39188321https://www.cnblogs.com/wybang/p/3206719.htmlhttps://blog.csdn.net/jteng/article/details/603346281. 伯努利分布伯努利分布(Bernoulli ...

    https://blog.csdn.net/michael_r_chang/article/details/39188321

    https://www.cnblogs.com/wybang/p/3206719.html

    https://blog.csdn.net/jteng/article/details/60334628

    1. 伯努利分布

    伯努利分布(Bernoulli distribution)又名两点分布0-1分布,介绍伯努利分布前首先需要引入伯努利试验(Bernoulli trial)

    • 伯努利试验是只有两种可能结果的单次随机试验,即对于一个随机变量X而言:

    伯努利试验都可以表达为“是或否”的问题。例如,抛一次硬币是正面向上吗?刚出生的小孩是个女孩吗?等等

    • 如果试验E是一个伯努利试验,将E独立重复地进行n次,则称这一串重复的独立试验为n重伯努利试验
    • 进行一次伯努利试验,成功(X=1)概率为p(0<=p<=1),失败(X=0)概率为1-p,则称随机变量X服从伯努利分布。伯努利分布是离散型概率分布,其概率质量函数为:

    2. 二项分布

    二项分布(Binomial distribution)是n重伯努利试验成功次数的离散概率分布。

    • 如果试验E是一个n重伯努利试验,每次伯努利试验的成功概率为p,X代表成功的次数,则X的概率分布是二项分布,记为X~B(n,p),其概率质量函数为

      显然,

    • 从定义可以看出,伯努利分布是二项分布在n=1时的特例
    • 二项分布名称的由来,是由于其概率质量函数中使用了二项系数,该系数是二项式定理中的系数,二项式定理由牛顿提出:

    • 二项分布的典型例子是扔硬币,硬币正面朝上概率为p, 重复扔n次硬币,k次为正面的概率即为一个二项分布概率。

    3. 多项分布

    多项式分布(Multinomial Distribution)是二项式分布的推广。二项式做n次伯努利实验,规定了每次试验的结果只有两个,如果现在还是做n次试验,只不过每次试验的结果可以有多m个,且m个结果发生的概率互斥且和为1,则发生其中一个结果X次的概率就是多项式分布。

    • 扔骰子是典型的多项式分布。扔骰子,不同于扔硬币,骰子有6个面对应6个不同的点数,这样单次每个点数朝上的概率都是1/6(对应p1~p6,它们的值不一定都是1/6,只要和为1且互斥即可,比如一个形状不规则的骰子),重复扔n次,如果问有k次都是点数6朝上的概率就是

    • 多项式分布一般的概率质量函数为:

    4. 贝塔分布

    在介绍贝塔分布(Beta distribution)之前,需要先明确一下先验概率、后验概率、似然函数以及共轭分布的概念。

    • 通俗的讲,先验概率就是事情尚未发生前,我们对该事发生概率的估计。利用过去历史资料计算得到的先验概率,称为客观先验概率; 当历史资料无从取得或资料不完全时,凭人们的主观经验来判断而得到的先验概率,称为主观先验概率。例如抛一枚硬币头向上的概率为0.5,这就是主观先验概率。
    • 后验概率是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。
    • 先验概率和后验概率的区别:先验概率不是根据有关自然状态的全部资料测定的,而只是利用现有的材料(主要是历史资料)计算的;后验概率使用了有关自然状态更加全面的资料,既有先验概率资料,也有补充资料。另外一种表述:先验概率是在缺乏某个事实的情况下描述一个变量;而后验概率(Probability of outcomes of an experiment after it has been performed and a certain event has occured.)是在考虑了一个事实之后的条件概率。
    • 似然函数
    • 共轭分布(conjugacy):后验概率分布函数与先验概率分布函数具有相同形式

    好了,有了以上先验知识后,终于可以引入贝塔分布啦!!首先,考虑一点,在试验数据比较少的情况下,直接用最大似然法估计二项分布的参数可能会出现过拟合的现象(比如,扔硬币三次都是正面,那么最大似然法预测以后的所有抛硬币结果都是正面)。为了避免这种情况的发生,可以考虑引入先验概率分布来控制参数,防止出现过拟合现象。那么,问题现在转为如何选择

    先验概率和后验概率的关系为:

    二项分布的似然函数为(就是二项分布除归一化参数之外的后面那部分,似然函数之所以不是pdf,是因为它不需要归一化):

    如果选择的先验概率也与次方德乘积的关系,那么后验概率分布的函数形式就会跟它的先验函数形式一样了。具体来说,选择prior的形式是,那么posterior就会变成这个样子了(为pdf的归一化参数),所以posterior和prior具有相同的函数形式(都是也与次方的乘积),这样先验概率与后验概率就是共轭分布了。

    所以,我们选择了贝塔分布作为先验概率,其概率分布函数为:

    ,其中

    5. 狄利克雷分布

    狄利克雷分布(Dirichlet distribution)是多项分布的共轭分布,也就是它与多项分布具有相同形式的分布函数。

    • 概率分布函数为:

    6. 后记

    本篇博文只是将伯努利分布、二项分布、多项分布、贝塔分布和狄利克雷分布做了简单的介绍,其中涉及到大量的概率基础和高等数学的知识,文中的介绍只是粗浅的把这些分布的概念作了大概介绍,没有对这些分布的产生历史做介绍。我想,更好的介绍方式,应是从数学史的角度,将这几项分布的发现按照历史规律来展现,这样会更直观、形象。后续再补吧!


       在机器学习领域中,概率模型是一个常用的利器。用它来对问题进行建模,有几点好处:1)当给定参数分布的假设空间后,可以通过很严格的数学推导,得到模型的似然分布,这样模型可以有很好的概率解释;2)可以利用现有的EM算法或者Variational method来学习。通常为了方便推导参数的后验分布,会假设参数的先验分布是似然的某个共轭分布,这样后验分布和先验分布具有相同的形式,这对于建模过程中的数学推导可以大大的简化,保证最后的形式是tractable。

        在概率模型中,Dirichlet这个词出现的频率非常的高。初始机器学习的同学或者说得再广一些,在学习概率模型的时候,很多同学都不清楚为啥一个表现形式如此奇怪的分布Dirichlet分布会出现在我们的教科书中,它是靠啥关系攀上了多项分布(Multinomial distribution)这个亲戚的,以至于它可以“堂而皇之”地扼杀我大天朝这么多数学家和科学家梦想的?为了引出背后这层关系,我们需要先介绍一个概念——共轭先验(Conjugate Prior)

    • Conjugate Prior: In Bayesian probability theory, if the posterior distributions p(θ|x) are in the same family as the prior probability distribution p(θ), the prior and posterior are then called conjugate distributions, and the prior is called a conjugate prior for the likelihood. ----from wiki
    • 用中文来讲,在贝叶斯统计理论中,如果某个随机变量Θ的后验概率 p(θ|x)和气先验概率p(θ)属于同一个分布簇的,那么称p(θ|x)和p(θ)为共轭分布,同时,也称p(θ)为似然函数p(x|θ)的共轭先验。

        介绍了这个重要的概念之后,我们回到文章的正题。首先需要弄清楚什么是二项分布(Binomial distribution)。这个概念是从伯努利分布推进的。伯努利分布是一个离散型的随机分布,其中的随机变量只有两类取值,非正即负{+,-}。二项分布即重复n次的伯努利试验,记为 X~b(n,p)。概率密度函数(概率质量函数)为。再来看看Beta分布,给定参数,取值范围为[0,1]的随机变量x的概率密度函数,其中。这里假定,先验分布和似然概率如下所示:

    那么很容易知道后验概率为

         弄清楚了Beta分布和二项分布之间的关系后,对于接下来的Dirichlet 分布和多项分布(Multinomial distribution)的关系理解将会有非常大的帮助。多项分布,从字面上所表现出的含义,我们也大抵知道它的意思。它本身确实也是这样的,其单次试验中的随机变量的取值不再是0-1的,而是有多种离散值可能(1,2,3...,k),其中。多项分布的概率密度函数为。而Dirichlet分布的的密度函数形式也如出一辙:,其中。到这里,我们可以看到Beta分布和Dirichlet 分布有多相似啊,二项分布和多项分布有多相似啊

         再一次来看看共轭。假设有先验分布

    另有似然函数

    则后验概率

    ,和Dirichlet 分布形式一致。

        其实,细心的读者已经发现,这里这四类分布,如果但从数学形式上看,它们的组织形式都是一致的,都是通过乘积的形式构成,加上先验分布、似然函数和后言分布之间的乘积推导关系,可以很容易发现,它们所表现出的共轭性质很容易理解。


    Beta分布与Dirichlet分布的定义域均为[0,1],在实际使用中,通常将两者作为概率的分布,Beta分布描述的是单变量分布,Dirichlet分布描述的是多变量分布,因此,Beta分布可作为二项分布的先验概率,Dirichlet分布可作为多项分布的先验概率。这两个分布都用到了Gamma函数,所以,首先了解一下Gamma函数。

    1. Gamma函数

      首先看其表达式 
      Γ(x)=0tx1etdtΓ(x)=∫0∞tx−1e−tdt 
    这样的表达看懂都很难,更不知道那些数学家怎么想出来的。据LDA数学八卦中记录,在Gamma函数的发现中做出主要贡献的数学家有哥德巴赫、丹尼尔·伯努利(不是伯努利分布的那个伯努利),最终由欧拉解决这个问题(这些大数学家互相都认识的啊)。 
      Gamma函数是对阶乘在实数领域的扩展,也就是说,Γ(x+1)=xΓ(x)Γ(x+1)=xΓ(x),下面用分部积分的方法进行推导,如不关心,可以略过。 
      

    Γ(x)=0tx1etdt=1x0etdtx=1x(ettx|00txdet)=1x0txetdt=1xΓ(x+1)Γ(x)=∫0∞tx−1e−tdt=1x∫0∞e−tdtx=1x(e−ttx|0∞−∫0∞txde−t)=1x∫0∞txe−tdt=1xΓ(x+1)

    据PRML第71页(2.14)式,Gamma函数在Beta分布和Dirichlet分布中起到了归一化的作用。

    2. Beta分布

      Beta分布描述的是定义在区间[0,1]上随机变量的概率分布,由两个参数α>0α>0β>0β>0决定,通常记为μBeta(μ|α,β)μ∼Beta(μ|α,β),其概率密度函数如下 
      P(μ|α,β)=Γ(α+β)Γ(α)Γ(β)μα1(1μ)β1=1B(α,β)μα1(1μ)β1P(μ|α,β)=Γ(α+β)Γ(α)Γ(β)μα−1(1−μ)β−1=1B(α,β)μα−1(1−μ)β−1 
    其中,Γ()Γ(⋅)就是Gamma函数,B(α,β)B(α,β)为Beta函数,并且 
      B(α,β)=Γ(α)Γ(β)Γ(α+β)B(α,β)=Γ(α)Γ(β)Γ(α+β) 
    Beta分布的概率密度函数曲线如下图:(摘自wikipedia Beta distribution


    Beta distribution 

    由于Beta分布定义在区间[0,1]上,所以适合作为概率的分布。第一段提到Beta分布可作为二项分布的先验概率,那就需要从二项分布的定义来理解Beta分布的形式。已知二项分布的形式为: 
      p(x=k|n,μ)=Cknμk(1μ)nkp(x=k|n,μ)=Cnkμk(1−μ)n−k 
    μμ进行后验概率估计时,其似然项是μμ(1μ)(1−μ)的指数形式,如果先验概率也选择为μμ(1μ)(1−μ)的指数形式,那么后验概率就仍然保持这种指数形式,这种性质叫做共轭分布,我们会在后面的文章中对共轭分布进行介绍。 
    因此,Beta分布就是μμ(1μ)(1−μ)的指数形式,其中Beta函数为归一化系数。Beta分布的均值和方差分别为 
      E[μ]=αα+βE[μ]=αα+β 
      var(μ)=αβ(α+β)2(α+β+1)var(μ)=αβ(α+β)2(α+β+1)

    3. Dirichlet分布

      Dirichlet分布是关于定义在区间[0,1]上的多个随机变量的联合概率分布,假设有dd个变量μiμi,并且di=1μi=1∑i=1dμi=1,记μ=(μ1,μ2,...,μd)μ=(μ1,μ2,...,μd),每个μiμi对应一个参数αi>0αi>0,记α=(α1,α2,...,αd)α=(α1,α2,...,αd)α^=di=1αiα^=∑i=1dαi,那么它的概率密度函数为 
    p(μ|α)=Dir(μ|α)=Γ(α^)Γ(α1)Γ(αd)di=1μαi1ip(μ|α)=Dir(μ|α)=Γ(α^)Γ(α1)⋯Γ(αd)∏i=1dμiαi−1 
      Dirichlet分布的每一个随机变量具有统计量如下: 
      E[μi]=αiα^E[μi]=αiα^ 
      var(μi)=αi(α^αi)α^2(α^+1)var(μi)=αi(α^−αi)α^2(α^+1) 
      cov(μi,μj)=αiαjα^2(α^+1)cov(μi,μj)=αiαjα^2(α^+1) 
      由于Dirichlet分布描述的是多个定义于区间[0,1]的随机变量的概率分布,所以通常将其用作多项分布参数μiμi的概率分布。



    展开全文
  • 几何分布二项分布有什么区别?

    万次阅读 多人点赞 2018-09-16 13:19:07
    各种常见的分布中二项分布和几何分布经常同时出现,在前面讲泊松分布的时候也简单提到了二项分布。那么,几何分布是什么分布?和二项分布又有什么区别? 几何分布 讲泊松分布的时候提到,二项分布的概率公式如下...

    ● 每周一言

    越长大越渺小。

    导语

    各种常见的分布中,二项分布和几何分布经常同时出现,在前面讲泊松分布的时候也简单提到了二项分布。那么,几何分布是什么分布?和二项分布有什么区别?

    几何分布

    讲泊松分布的时候提到,二项分布的概率公式如下:

    P=Cnk×pk×(1p)nk

    这里不妨进一步明确一下适用于二项分布的条件,一共有三个。

    fig1

    其一,某个事件发生的次数(或者实验次数)有限且固定,用n表示。比如抛十次硬币。

    其二,事件每次发生(或者实验)的结果有且只有两种(成功或失败),其中一种结果的概率为p,另一种则是1-p。比如硬币正面朝上的概率是p,翻面朝上则是1-p。

    其三,事件每次发生(或者实验),出现相同结果的概率相等。比如每次抛硬币相同面朝上的概率是一样的。

    fig2

    大家知道,抛硬币实验是最经典的二项分布实验,一般是求n次抛硬币实验中有k(k ≤ n)次正面朝上的概率。而几何分布和二项分布很像,所适用的条件和二项分布也一样,不过其计算更为简单。

    与二项分布关心的“n次实验k次成功的概率”不同,几何分布关心的是,事件发生(或者实验)n次中,在第x次取得成功的概率。其发生的概率P为:

    P=(1p)x1×p

    fig3

    这个便是几何分布公式,几何分布公式的数学期望 μ = 1/p。和二项分布一样,几何分布也是一种离散概率分布。

    以上便是几何分布和二项分布的区别,敬请期待下节内容。

    结语

    感谢各位的耐心阅读,后续文章于每周日奉上,敬请期待。欢迎大家关注小斗公众号 对半独白

    face

    展开全文
  • 算法之二项分布(c/c++版)

    千次阅读 2017-07-12 21:57:13
    二项分布是数学的概念,定义及公式定理不在此说明. 注:递归版第三步及递推都依赖于C(M-1,N-1)+C(M-1,N)=C(M,N)的变形 递归版: (我给递归版注释了1 2 3 是为了解析非递归版(递推版)同等的操作 1 2 3...
  • 二项分布计算

    2013-10-25 12:20:37
    统计学课上,为方便二项分布计算而编写的小程序。用法很简单,首先输入二项分布的N和p,然后输入计算范围,就可求出相应范围内的概率。 采用C语言编写。压缩包有源代码和exe文件。
  • 概率分布二项分布与多项分布

    万次阅读 多人点赞 2017-02-10 22:38:02
    1. 伯努利分布(Bernoulli distribution)  伯努利分布又称分布或0-1分布,即一次试验只有正例和反例两种可能,以随机变量表示就是X只能取0或1,伯努利试验是只有两种可能结果的单次随机试验
  • 概率统计13——二项分布与多项分布

    千次阅读 2019-12-28 19:21:43
     如果随机试验仅有两个可能的结果,那么这两个结果可以用0和1表示,此时随机变量X将是一个0/1的变量,其分布是单个值随机变量的分布,称为伯努利分布。注意伯努利分布关注的是结果只有0和...
  • 记忆正态分布公式

    千次阅读 2018-06-27 13:26:03
    R语言代码:x &lt;- seq(-2,2,0.1) ...plot(c(-2,2), c(0,8), type='n', main='exp(x)') lines(x, exp(x), col='red') plot(c(-2,2), c(0,8), type='n', main='exp(abs(x))') lines(x, exp(abs(x)), col...
  • 二项分布最大值,泊松分布的推导,几何分布的推导 (概统2.应用) 1.二项分布 二项分布就是独立事件n重伯努利试验,每次试验只有A发生与不发生两种结果,求n次试验恰好发生k次的概率。 P{X=k} = $C_{n}^{k}p^{k}q...
  • 二项分布

    千次阅读 2013-12-11 09:58:48
    二项分布[编辑] 维基百科,自由的百科全书 二项分布 机率 质量 函数 累积分布函数 参数  试验次数 (整数)  成功概率 (实数) 值域 概率密度函数 ...
  • 超几何概率公式 设N件产品恰好有M件次品,其余N-M件产品是非次品,随机的...二项概率公式 如果做一次随机试验只能得到两个不同的结果之一,那么称这种随机试验为伯努利试验。记其中一个结果是成功,另外一个结果...
  • 在阅读高斯过程(GPs)时,我认为能够证明有关多元高斯分布的一些基本事实将是...1(2π)k/2∣Σ∣1/2exp(−12(x−μ)TΣ−1(x−μ)) \frac{1}{(2\pi)^{k/2}{|\Sigma|}^{1/2}} exp(- \frac{1}{2} (x - \mu)^T \Sigma^{
  • 伯努利分布 瑞士数学家雅克·伯努利``(Jacques Bernoulli,1654~1705)首次研究独立重复试验(每次成功率为p)。在他去世后的第8年(1713年),他侄子...二项分布(Binomial Distribution, 维基百科)是n个独立的是...
  • **2018博客之星评选,如果喜欢我的文章,请投我一票,编号:No.... 二项分布有两个参数,一个 n 表示试验次数,一个 p 表示一次试验成功概率。现在考虑一列二项分布,其中试验次数 n 无限增加,而 p 是 n 的函数。 ...
  • 分布分布关系1、二项分布2、几何分布3、泊松分布4、二项分布转化泊松分布,泊松转化正态分布 1、二项分布   n次独立重复试验,每次事件出现的结果只有两个,出现同一结果的概率相同为p;   抛硬币,假设硬币不...
  • 1. 二项分布与beta分布对应  2. 多项分布与狄利克雷分布对应 3. 二项分布是什么?n次bernuli试验服从 二项分布 二项分布是N次重复bernuli试验结果的分布。 bernuli实验是什么?做一次抛硬币实验,该试验结果...
  • 二项分布和泊松分布分析 一、泊松分布 日常生活,大量的事件是有固定频率的: 它们的特点就是,我们可以预估这些事件的总数,但是没法知道具体的发生时间。已知平均每小时出生3个婴儿,请问下一个小时,会...
  • 在看LDA的时候,遇到的数学公式分布有些多,因此在这里总结一下思路。 一、伯努利试验、伯努利过程与伯努利分布 先说一下什么是伯努利试验: 维基百科伯努利试验: 伯努利试验(Bernoulli trial)是只有两种...
  • 离散型随机变量,二项分布,泊松分布,指数分布,几何分布(概统2.知识) 1.0-1分布 。例如抛硬币,正面朝上设为1,反面朝上设为0 分布律为 结果随机变量X 1 0 概率 P p 1-p ...
  • 二项分布算法(伯努利实验)

    千次阅读 2017-11-04 21:14:24
    算法 二项分布
  • 二项分布均值,方差推导

    千次阅读 2017-08-22 15:41:49
    二项分布的期望,方差推导
  • 以抛硬币来决定宴会的结束:当国王举行第k次的生日,则每天抛一次硬币,硬币正面概率为p,反面则为(1-p),则当国王抛到第k次正面硬币的情况下,结束生日party,而每天生日party的开销为一个a0=1,d=2的等差数列,...
  • 离散型随机变量的概率分布二项分布,柏松分布 连续性随机变量的概率分布:正态分布。 一,二项分布 满足条件: 1)每次试验事件只有两种结果:事件发生或者不发生,如硬币正面或反面,患病或没患病; 2)...
  • 二项分布的基本概念

    万次阅读 2016-11-14 10:48:31
    说起二项分布(binomial distribution),不得不提的前提是伯努利试验(Bernoulli experiment),也即n次独立重复试验。伯努利试验是在同样的条件下重复、相互独立进行的一种随机试验。  伯努利试验的特点是: (1)...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 87,199
精华内容 34,879
关键字:

二项分布公式中的c