精华内容
下载资源
问答
  • 概率分布 数学分布 常见分布

    常见的机器学习与数据挖掘知识点之常见分布

    Common Distribution(常见分布):

    Discrete Distribution(离散型分布):

    • 0-1 Distribution(0-1分布)
      定义:若随机变量X只取01两个值,且其分布律为
      P{X=k}=pk(1p)1k,k=0,1

      其中X服从参数为p的(01)分布,记作X(01). 如抛掷硬币一次便服从两点分布.
        两点分布的期望与方差分别为:p,1p.
    • Geometric Distribution(几何分布)
      定义:若随机变量X的可能取值为1,2,3,...且它的分布律为
      P{X=k}=(1p)k1p=qk1p,k=1,2,3,...

      则称随机变量X服从参数p的几何分布,记作XG(p).
        几何分布具有无记忆性,即:
      P{X>m+n|X>m}=P{X>n}

      指几何分布对过去的m次失败的信息在后面的计算中被遗忘了.
        几何分布对应于:X为独立重复的贝努利试验这种,“首次成功”时的试验次数.
        几何分布的期望与方差分别为:1p,1pp2.
    • Hypergeometric Distribution(超几何分布)
      定义:若随机变量X的可能取值为0,1,2,....,n,而且其分布律为
      P{X=m}=CmMCnmNMCnN

      其中n,M,N都是正整数,且nN,MN. 上式中当m>Mnm>NM时,显然有PX=m=0,称这种分布为超几何分布,记作XH(n,M,N).
        超几何分布对应与不返回抽样模型:N个产品中有M个不合格产品,从中抽取n个,那么不合格的产品个数为X.
        超几何分布的期望与方差分别为:nMN,nMNNMNNnN1.
    • Bernoulli Distribution/Binomial Distribution(贝努利分布/二项分布)
      定义:设随机变量X的可能取值为0,1,2,...,n,其它的分布律为
      P{X=k}=Cknpk(1p)nk

      则称随机变量X服从参数为n,p的二项分布,记作XB(n,p),它是n重独立贝努利试验分布成功k次,当n=1时,其退化成01分布.
        设随机变量XH(n,M,N),则当N时,X近似地服从二项分布B(n,p),即下面的近似等式成立.
        二项分布的期望与方差分别为:np,np(1p).
    • Negative Binomial Distribution(负二项分布,又称Pascal 帕斯卡分布)
      定义:若随机变量X的可能取值为r,r+1,...,而且其分布律为
      P{X=k}=Cr1k1(1p)krpr,k=r,r+1,...

      其中,r,p都是常数,那么称随机变量X服从参数r,p的负二项分布,记作XNB(r,p).
        负二项分布是:X为独立重复的贝努利试验中,“第r次成功“时的试验次数.
        负二项分布的期望与方差分别为:rp,r(1p)p2.
        二项随机变量时独立01随机变量之和.
        在n重贝努利试验可看作由n个相同的,独立进行的贝努利试验组成,若将第i个贝努利试验中成功的次数记为XiB(1,p),i=1,...,nn重贝努利试验成功的总次数X=X1+X2+...+Xn,它服从B(n,p).
        负二项随机变量时独立几何随机变量之和.
        做一系列的贝努利试验,如果将首个成功出现的试验次数记为X1,第二个成功出现时的试验次数(从第一次成功之后算起)记为X2,……,第r个成功出现时的试验次数记为Xr,则Xi独立同分布,且XiG(p). 此时有X=X1+X2+...+XnNB(r,p).
    • Multinomial Distribution(多项分布)
      定义::若m维随机变量(X1,X2,...,Xm)可能取值为(k1,K2,...,Km),而且其分布律为
      P{X1=k1,X2=k2,...,Xm=km}=n!k1!k2!...km!pk11pk22...pkmm

      其中,mi=1ki=npi>0为试验结果是xi的概率,ki表示试验结果是xi的次数. 那么称随机变量(X1,X2,...,Xm)服从多项分布,记作(X1,X2,...,Xm)M(n,p1,p2,...,pm).
        通俗地说,假设一次随机试验取值范围可能为x1,x2,...xm,每个出现的概率依次为p1,p2,...,pm,现进行独立重复n次试验,分别将它们的出现次数记为随机变量X1,X2,...,Xm,那么该试验就是一个多项分布试验.
        多项分布的所有期望与协方差矩阵分别为:E=(np1,np2,...,npm),COVm×m=(cij),cii=npiqi,cij=npipj(ij).
    • Poisson Distribution (泊松分布)
      定义:若随机变量X的可能取值为0,1,2,...,其分布律为
      P{X=k}=λkk!eλ,k=0,1,2,...;λ>0

      则称随机变量X服从参数为λ的泊松分布,记作XP(λ).
        泊松定理:设随机变量XnB(n,pn),n=1,2,3,...;pn是与n无关的数). 又设npn=λ>0,n=1,2,...是常数,则有
      limnP{Xn=k}=λkk!eλ

        当npn=λ(常数)意味着当n很大时,pn必定很小. 故当二项分布的n很大,p很小时,取λ=np,必有
      P{X=k}=Cknpk(1p)nkλkk!eλ

      在实际计算过程中,一般当n10,p0.1时可用λkk!eλ作为Cknpk(1p)nk的近似值.
        泊松分布的期望与方差分别为:λ,λ.

    Continuous Distribution (连续型分布):

    • Uniform Distribution(均匀分布)
      定义:设随机变量X的的概率密度为:
      f(x)=1ba,axb,ab0,others

      则称随机变量X在区间[a,b]上服从均匀分布,记作XU[a,b].
        均匀分布的分布函数为:
      F(x)=P{Xx}=0,xaxaba,axb,1,xb

        如果随机变量XU[a,b],那么落在[a,b]中任何子区间[c,d](acdb)内的概率为:
      P{cXd}=dc1badx=dcba

      这说明随机变量X落在子区间上的概率与子区间的长度成正比,而与该子区间的位置无关,即它落在[a,b]中任意一段相等长度的子区间内的可能性相同.
        均匀分布的期望与方差分别为:a+b2,(ba)212.
        在实际中,服从均匀分布的例子很多,如:
      • 乘客候车时间服从均匀分布
      • 电台每隔20分钟发出一个信号,我们随手打开收音机,那么等待时间t[0,20]
      • …..
    • Exponential Distribution(指数分布)
      定义:若随机变量X的的概率密度为:
      f(x)={λeλx,x>00,x0]

      其中λ是正常数,则称随机变量X服从参数为λ的指数分布,记作XE(λ).
      指数分布的分布函数为:
      F(x)={1eλx,x>00,x0]

        实际使用中,常将指数分布作为各种寿命分布的近似,如动物的寿命,电子电气元件的寿命,随机服务系统中的服务时间等.
        指数分布具有无记忆性.
        指数分布的期望与方差分别为:1λ,1λ2.
    • Normal Distribution/Gaussian Distribution(正态分布/高斯分布)
      定义:若随机变量X的概率密度为
      f(x)=1σ2πe(xμ)22σ2,x(,+)

      其中μ,σ均为常数,分别为其的期望与方差,且σ>0,则称随机变量X服从参数为μ,σ的正态分布,也称随机变量X为正态变量,记作XN(μ,σ2).
        正态分布的分布函数为:
      F(x)=1σ2πxe(tμ)22σ2dt,x(,+)

        特别地,当μ=0,σ=1时的正态分布叫做标准正态分布,记作XN(0,1),它的概率密度使用ϕ(x)表示,为:
      ϕ(x)=12πex22,x(,+)

      其分布函数使用Φ(x)表示,为:
      Φ(x)=12πxet22dt,x(,+)

      这样就有:
      Φ(x)=1Φ(x)

      并且,正态分布N(μ,σ2)的分布函数与标准正态分布N(0,1)的分布函数Φ(x)有:
      F(x)=Φ(xμσ)

        正态分布的期望与方差分别为:μ,σ2.
    • Lognormal Distribution(对数正态分布)
      定义:若随机变量X的对数服从正态分布,那么该随机变量服从对数正态分布,其概率密度为
      f(x)=1σx2πe(lnxμ)22σ2,x>0

      其中μ,σ均为常数,且σ>0,则称随机变量X服从参数为μ,σ的对数正态分布,也称随机变量X为对数正态变量,记作XLN(μ,σ2),注意:μ,σ不是它的期望与方差.
        对数正态分布的分布函数为:
      F(x)=x0+f(t)dt=Φ(lnxμσ)

        对数正态分布的期望与方差分别为:eμ+σ22,e2μ+σ2eσ21.
    • Gamma Distribution(伽马分布)
      先导知识:

      • 阶乘:n!=n(n-1)(n-2)…1
      • Gamma(伽马)函数:Gamma函数是阶乘的在实数域与复数域上的拓展,记为Γ(x).

        • 在实数域上伽马函数定义为:
          Γ(x)=+0tx1etdt
        • 在复数域(其中Re(z)>0,即实数部分大于0)上伽马函数定义为:
          Γ(z)=+0tz1etdt

        通过分部积分,可以得到:

        Γ(x+1)=xΓ(x)

        对于正整数n,有:
        Γ(n)=+0tnetdt=(n1)!

        那么问题来了:

        • 这个如此奇怪的函数是如何发现的呢?
            这就与一些数学大豪有关了,比如哥德巴赫、贝努利、欧拉、高斯等,详细参见神奇的gamma函数.
        • 为何Γ(n)n!而是Γ(n)(n1)!?
            欧拉早期的Gamma函数便是定义为Γ(n)n!,后来对其进行了修正为Γ(n)(n1)!(具体原因不得而知),可能欧拉研究了
          B(m,n)=10xm1(1x)n1dx

          这个函数便是Beta函数,如果Γ(n)(n1)!,那么有
          B(m,n)=Γ(m)Γ(n)Γ(m+n)

          该函数是具有非常漂亮的对称形式. 如果Γ(n)n!,那么令
          E(m,n)=10xm(1x)ndx

          则有
          E(m,n)=Γ(m)Γ(n)Γ(m+n+1)

          这个形式显然不如B(m,n)那么优美,而数学家总是很在乎数学公式的美感的.
          定义:若随机变量X的概率密度为
          f(x)=1βαΓ(α)xα1exβ,x>0

          其中,α形状参数(shape parameter),β尺度参数(scale parameter)均为常数,则称随机变量X服从参数为α,β的伽马分布,记作XGa(α,β).
            Gamma分布函数为:
          F(x)=x0f(u)du=γ(α,xβ)Γ(α)

          其中
          γ(α,xβ)=xβ0tα1et

            若α是正整数,上式是一个Erlang分布:
          F(x)=1i=0α1(βx)ii!eβx=eβxi=α(βx)ii!

            Gamma分布的期望为αβ,方差为αβ2. Gamma分布即为:随机变量X 为等到第α件事发生所需等待时间.
    • Beta Distribution(Beta分布)
      定义:若随机变量X的概率密度为
      f(x)=1B(a,b)xa1(1x)b1,0<x<1

      其中,a>0,b>0均为常数,B(a,b)=Γa+bΓ(a)Γ(b),那么随机变量X服从参数为a,b的贝塔分布,记为XB(a,b).
        贝塔分布的分布函数为:
      F(x)=x0f(t)dt

        Beta分布的期望与方差分别为:αα+β,αβα+αβ2+β+1.
    • Dirichlet Distribution(狄利克雷分布)
      定义:若随机变量X的概率密度为
      f(x)=Γ(α0)Γ(α1)...Γ(αK)k=1Kμαk1k

      其中,μ⃗ =(μ1,...,μK),α⃗ =(α0,...,αK)中的每一个分量为均常数,并且kμk=1,α0=Kk=1αk ,那么随机变量X服从参数为μ⃗ ,α⃗ 的狄利克雷分布,记为XDir(μ⃗ ,α⃗ ).
    • Rayleigh Distribution(瑞利分布)
      定义:若随机变量X的概率密度为
      f(x)=xσ2ex22σ2,x0

      其中,σ>0为常数,那么随机变量X服从参数为σ的瑞利分布,记为XR(σ).
        瑞利分布的分布函数为:
      F(x)=x0f(t)dt

        瑞利分布的期望与方差分别为:π2σ,4π2σ2
    • Cauchy Distribution(柯西分布)
      定义:若随机变量X的概率密度为
      f(x)=1πγ[1+(xx0)2γ],x(,+)

      其中,x0,γ(γ>0)尺度参数均为常数,那么随机变量X服从参数为x0,γ的柯西分布,记为XC(x0,γ).
        柯西分布的分布函数为:
      F(x)=xf(t)dt=πarctan(xx0γ)+12,x(,+)

        柯西分布的期望与方差均不存在.
    • Weibull Distribution(韦伯分布)
        韦伯分布的期望与方差分别为:
      定义:若随机变量X的概率密度为
      f(x)=βη(xη)β1e(xη)β,x0

      其中,η>0,β>0均为常数,那么随机变量X服从参数为η,β的韦伯分布,记为XW(η,β).
        韦伯分布的分布函数为:
      F(x)=x0f(t)dt=1e(xη)β

        韦伯分布的期望与方差分别为:ηΣ(1β+1),η2(Γ(2β+1)Γ(1β+1)).
        它的累积分布函数是扩展的指数分布函数,而且,Weibull distribution与很多分布都有关系。如,当β=1,它是指数分布;β=2时,是Rayleigh Distribution(瑞利分布).
    • Laplacian Distribution(拉普拉斯分布)
      定义:若随机变量X的概率密度为
      f(x)=12be|xμ|b

      其中,μ,b(b>0)均为常数,那么随机变量X服从参数为μ,b的拉普拉斯分布,记为XL(μ,b).
        概率密度函数如下图所示:
      这里写图片描述
        拉普拉斯分布的分布函数为:
      F(x)=xf(t)dt12[1+sgn(xu)e|xμ|b]

        拉普拉斯分布的期望与方差分别为:μ,2b2.
    展开全文
  • 常见分布及其概率分布图

    万次阅读 多人点赞 2019-05-09 16:40:49
    概率分布有两种类型:离散(discrete)概率分布和连续(continuous)概率分布。 离散概率分布也称为概率质量函数(probability mass function)。离散概率分布包括: 伯努利分布(Bernoulli distribution) 二项...

    概率分布有两种类型:离散(discrete)概率分布连续(continuous)概率分布

    离散概率分布也称为概率质量函数(probability mass function)。离散概率分布包括:

    • 伯努利分布(Bernoulli distribution)
    • 二项分布(binomial distribution)
    • 几何分布(geometric distribution)
    • 泊松分布(Poisson distribution)等。

    连续概率分布也称为概率密度函数(probability density function),它们是具有连续取值(例如一条实线上的值)的函数。连续概率分布包括:

    • 正态分布(normal distribution)
    • 指数分布(exponential distribution)
    • β分布(beta distribution)等。

    1. 两点分布(伯努利分布)

    伯努利试验:

    伯努利试验是在同样的条件下重复地、各次之间相互独立地进行的一种试验。

    即只先进行一次伯努利试验,该事件发生的概率为p,不发生的概率为1-p。这是一个最简单的分布,任何一个只有两种结果的随机现象都服从0-1分布。

    最常见的例子为抛硬币

    其中,期望E=pE = p ,方差D=p(1p)2+(1p)(0p)2=p(1p)D = p(1-p)^2+(1-p)(0-p)^2 = p(1-p)

    2. 二项分布(n重伯努利分布)

    用数学符号 X~B(n,p) 来表示二项分布。即做n个两点分布的实验,其中,E=npE = npD=np(1p)D = np(1-p)。而它的概率分布函数为:P(k)=Cnkpk(1p)nkP(k)=C_n^kp^k(1-p)^{n-k}

    对于抛硬币的问题,做100次实验,正反面概率都为0.5,观察其概率分布函数:

    from scipy.stats import binom
    import matplotlib as mpl
    import matplotlib.pyplot as plt
    import numpy as np
    
    # Binomial distribution
    n = 100
    p = 0.5
    k = np.arange(20,80)
    binomial = binom.pmf(k,n,p)
    plt.plot(k, binomial, 'o-')
    plt.title('binomial:n=%i,p=%.2f'%(n,p))
    plt.xlabel('number of success') #正面向上的次数
    plt.ylabel('probalility of success')
    plt.grid(True)
    plt.show()
    

    结果显示如下:
    二项分布
    观察概率分布图,可以看到,对于n = 100次实验中,有50次成功的概率(正面向上)的概率最大。

    3. 几何分布

    用数学符号 X~GE(p) 来表示几何分布。即在n次伯努利实验中,第k次实验才得到第一次成功的概率分布。其中:P(k)=(1p)(k1)pP(k) = (1-p)^{(k-1)}p。期望值E=1/pE = 1/p 推导方法就是利用利用错位相减法然后求lim - k ->无穷 。方差D=(1p)/p2D = (1-p)/p^2 推导方法利用了D(x)=E(x)2E(x2)D(x) = E(x)^2-E(x^2),其中E(x2)E(x^2)求解同上。

    对于抛硬币的问题,正反面概率都为0.5,观察第k次实验才得到第一次成功的概率分布函数:

    from scipy.stats import geom
    
    # 几何分布(geometric distribution)
    n = 10
    p = 0.5
    k = np.arange(1,10)
    geom_dis = geom.pmf(k,p)
    plt.plot(k, geom_dis, 'o-')
    plt.title('geometric distribution')
    plt.xlabel('i-st item success')
    plt.ylabel('probalility of i-st item success')
    plt.grid(True)
    plt.show()
    

    显示结果如下:
    几何分布

    4. 泊松分布

    用数学符号X~P(λ) 表示泊松分布。描述单位时间/面积内,随机事件发生的次数。P(x=k)=λkk!e(λ),k=0,1,2,...λ&gt;0P(x = k) = \frac{λ^k}{k!}e^{(-λ) } ,k = 0,1,2, ... λ &gt;0。泊松分布可作为二项分布的极限而得到。

    一般的说,若X~B(n,p),其中n很大,p很小,因而 np=λ 不太大时,X的分布接近于泊松分布 P(λ)。λ:单位时间/面积下,随机事件的平均发生率。期望值E = λ,方差D = λ。譬如:某一服务设施一定时间内到达的人数、一个月内机器损坏的次数等。

    假设某地区,一年中发生枪击案的平均次数为2。考察一下不同次数的概率分布:

    from scipy.stats import poisson
    
    # 泊松分布(poisson distribution)
    mu = 2
    x = np.arange(10)
    plt.plot(x, poisson.pmf(x, mu),'o')
    plt.title(u'poisson distribution')
    plt.xlabel('shot case count')
    plt.ylabel('probalility of shot case count')
    plt.grid(True)
    plt.show()
    

    结果显示如下:

    泊松分布
    一年内的枪击案发生次数的分布如上所示。可以看到1次和2次的枪击案发生概率最高。

    与二项分布对比:

    # 二项分布和泊松分布对比
    fig,ax = plt.subplots(1,1)
     
    n = 1000
    p = 0.1
    x = np.arange(80,120)
    p1, = ax.plot(x, binom.pmf(x, n, p),'b*',label = 'binom')
     
    mu = n*p
    p2, = ax.plot(x, poisson.pmf(x, mu),'ro',label = 'poisson')
     
    plt.legend(handles = [p1, p2])
    plt.title(u'possion and binomial')
    plt.show()
    

    对比

    可以看到这里当n=1000,p=0.1时, λ=100,泊松分布和二项分布已经很接近了。

    5. 指数分布

    用数学符号 X~E(λ) 表示指数分布。

    指数分布的特性:无记忆性。比如灯泡的使用寿命服从指数分布,无论他已经使用多长一段时间,假设为s,只要还没有损坏,它能再使用一段时间t 的概率与一件新产品使用时间t 的概率一样

    这个证明过程简单表示:P(s+ts)=P(s+t,s)/P(s)=Fs+t/Fs=P(t)P(s+t| s) = P(s+t , s)/P(s) = F(s+t)/F(s)=P(t)

    它的概率密度函数为:

    f(x)={λeλxx&gt;0,λ&gt;00x0 f(x)=\begin{cases} \lambda e^{-\lambda x} &amp; x&gt;0,\lambda &gt; 0\\ 0 &amp; x\le0 \end{cases}

    期望值E=1/λE=1/λ,方差D=1/λ2D=1/λ^2

    from scipy.stats import expon
    # 指数分布
    fig,ax = plt.subplots(1,1)
     
    lambdaUse = 2
    loc = 0
    scale = 1.0/lambdaUse
     
    #ppf:累积分布函数的反函数。q=0.01时,ppf就是p(X<x)=0.01时的x值。
    x = np.linspace(expon.ppf(0.01,loc,scale),expon.ppf(0.99,loc,scale),100)
    ax.plot(x, expon.pdf(x,loc,scale),'b-',label = 'expon')
    plt.xlabel('x')
    plt.ylabel('f(x)')
    plt.title(u'expon distribution')
    plt.show()
    

    显示结果如下:

    指数分布

    6. 正态分布(高斯分布)

    用数学符号 X~N(μ,σ^2) 表示正态分布。期望值E=μE = μ,方差D=σ2D = σ^2

    正态分布是比较常见的,譬如学生考试成绩的人数分布、身高分布等。

    它的概率密度函数是:

    f(x)=12πσexp((xμ)22σ2)f(x)=\frac{1}{\sqrt{2\pi} \sigma}exp(-\frac{(x-\mu)^2}{2\sigma^2})

    from scipy.stats import norm
    # 正态分布(normal distribution)
    fig,ax = plt.subplots(1,1)
     
    loc = 1
    scale = 2.0
    
    #ppf:累积分布函数的反函数。q=0.01时,ppf就是p(X<x)=0.01时的x值。
    x = np.linspace(norm.ppf(0.01,loc,scale),norm.ppf(0.99,loc,scale),100)
    ax.plot(x, norm.pdf(x,loc,scale),'-',label = 'norm')
     
    plt.title(u'normal distribution')
    plt.show()
    

    正态分布


    附:
    code


    参考:

    1. 概率论中常见分布总结以及python的scipy库使用:两点分布、二项分布、几何分布、泊松分布、均匀分布、指数分布、正态分布

    THE END.

    展开全文
  • 常见分布与假设检验

    2020-06-26 22:00:42
    常见分布与假设检验一、常见分布1、离散型分布1.1 二项分布1.2 泊松分布(描述某段时间内,事件具体发生的概率)2、连续型分布2.1 均匀分布2.2 正态分布2.3 指数分布(描述事件的时间间隔的概率) 一、常见分布 1、...

    一、常见分布

    1、离散型分布

    1.1 二项分布

    二项分布可以认为是一种只有两种结果(成功/失败)的单次试验重复多次后成功次数的分布概率。

    二项分布需要满足以下条件:

    试验次数是固定的
    每次试验都是独立的
    对于每次试验成功的概率都是一样的
    一些二项分布的例子:

    销售电话成功的次数
    一批产品中有缺陷的产品数量
    掷硬币正面朝上的次数
    在一袋糖果中取糖果吃,拿到红色包装的次数
    在n次试验中,单次试验成功率为p,失败率q=1-p,则出现成功次数的概率为 P(X=x)=Cnxpxqnx P(X=x) = C_n^x p^x q^{n-x}

    Python实现:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    # 生成大小为1000的符合b(10,0.5)二项分布的样本集
    s = np.random.binomial(n=10,p=0.5,size=1000)
    
    # 计算二项分布B(10,0.5)PMF
    x=range(11)
    p=stats.binom.pmf(x, n=10, p=0.5)
    
    # 计算二项分布B(10,0.5)CDF
    x=range(11)
    p=stats.binom.cdf(x, n=10, p=0.5)
    
    #比较n=10,p=0.5的二项分布的真实概率质量和10000次随机抽样的结果
    x = range(11)  # 二项分布成功的次数(X轴)
    t = stats.binom.rvs(10,0.5,size=10000) # B(10,0.5)随机抽样10000次
    p = stats.binom.pmf(x, 10, 0.5) # B(10,0.5)真实概率质量
    
    fig, ax = plt.subplots(1, 1)
    sns.distplot(t,bins=10,hist_kws={'density':True}, kde=False,label = 'Distplot from 10000 samples')
    sns.scatterplot(x,p,color='purple')
    sns.lineplot(x,p,color='purple',label='True mass density')
    plt.title('Binomial distribution')
    plt.legend(bbox_to_anchor=(1.05, 1))
    

    在这里插入图片描述

    1.2 泊松分布(描述某段时间内,事件具体发生的概率)

    泊松分布是用来描述泊松试验的一种分布,满足以下两个特征的试验可以认为是泊松试验:

    所考察的事件在任意两个长度相等的区间里发生一次的机会均等
    所考察的事件在任何一个区间里发生与否和在其他区间里发生与否没有相互影响,即是独立的

    泊松分布需要满足一些条件:
    试验次数n趋向于无穷大
    单次事件发生的概率p趋向于0
    np是一个有限的数值

    泊松分布的一些例子:
    某医院平均每小时出生三个婴儿(λ=3)
    某网站平均每分钟有两次访问(λ=2)
    更多例子请参考 泊松分布 & 指数分布 及其数字特征.

    一个服从泊松分布的随机变量X,在具有比率参数(rate parameter)λ (λ=np)的一段固定时间间隔内,事件发生次数为i的概率为 P{X=i}=eλλii! P\lbrace X= i \rbrace = e^{-λ} \frac{λ^i}{i!}

    Python实现:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    
    #生成大小为1000的符合P(1)的泊松分布的样本集
    s = np.random.poisson(lam=1,size=1000)
    
    #计算泊松分布P(1)PMF
    x=range(11)
    p=stats.poisson.pmf(x, mu=1)
    
    #计算泊松分布P(1)CDF
    x=range(11)
    p=stats.poisson.cdf(x, mu=1)
    
    #比较λ=2的泊松分布的真实概率质量和10000次随机抽样的结果
    x=range(11)
    t= stats.poisson.rvs(2,size=10000)
    p=stats.poisson.pmf(x, 2)
    
    fig, ax = plt.subplots(1, 1)
    sns.distplot(t,bins=10,hist_kws={'density':True}, kde=False,label = 'Distplot from 10000 samples')
    sns.scatterplot(x,p,color='purple')
    sns.lineplot(x,p,color='purple',label='True mass density')
    plt.title('Poisson distribution')
    plt.legend()
    

    在这里插入图片描述

    2、连续型分布

    需要注意的是,连续型随机变量的概率密度在某个点的概率密度并不是在这一点发生的概率。即PDF曲线的点并不是该分布在这一点的概率。事实上,连续型分布在各个点的概率均为0,只有区间概率才有意义。

    2.1 均匀分布

    均匀分布指的是一类在定义域内概率密度函数处处相等的统计分布。

    若X是服从区间[a,b]上的均匀分布,则记作X~U[a,b]。

    均匀分布X的概率密度函数为 f(x)={1ba,axb0,others f(x)= \begin{cases} \frac {1} {b-a} , & a \leq x \leq b \\ 0, & others \end{cases} 分布函数为 F(x)={0,x<a(xa)(ba),axb1,x>b F(x)=\begin{cases} 0 , & x< a \\ \frac{(x-a)}{(b-a)}, & a \leq x \leq b \\ 1, & x>b \end{cases} 均匀分布的一些例子:
    一个理想的随机数生成器
    一个理想的圆盘以一定力度旋转后静止时的角度

    Python实现:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    
    # 生成大小为1000的符合U(0,1)均匀分布的样本集,注意在此方法中边界值为左闭右开区间
    s = np.random.uniform(low=0,high=1,size=1000)
    
    # 计算均匀分布U(0,1)PDF
    x = numpy.linspace(0,1,100)
    p= stats.uniform.pdf(x,loc=0, scale=1)
    
    # 计算均匀分布U(0,1)CDF
    x = numpy.linspace(0,1,100)
    p= stats.uniform.cdf(x,loc=0, scale=1)
    
    #比较U(0,1)的均匀分布的真实概率密度和10000次随机抽样的结果
    x=numpy.linspace(0,1,100)
    t= stats.uniform.rvs(0,1,size=10000)
    p=stats.uniform.pdf(x, 0, 1)
    
    fig, ax = plt.subplots(1, 1)
    sns.distplot(t,bins=10,hist_kws={'density':True}, kde=False,label = 'Distplot from 10000 samples')
    
    sns.lineplot(x,p,color='purple',label='True mass density')
    plt.title('Uniforml distribution')
    plt.legend(bbox_to_anchor=(1.05, 1))
    

    在这里插入图片描述

    2.2 正态分布

    正态分布,也叫做高斯分布,是最为常见的统计分布之一,是一种对称的分布,概率密度呈现钟摆的形状,其概率密度函数为 f(x)=12πσe(xu)22σ2 f(x)=\frac{1}{\sqrt{2π}\sigma}e^{\frac{-(x-u)^2}{2\sigma^2}} 记为X ~ N(μ, σ2σ^2) , 其中μ为正态分布的均值,σ为正态分布的标准差

    有了一般正态分布后,可以通过公式变换将其转变为标准正态分布 Z ~ N(0,1), Z=Xμσ Z=\frac {X-μ} {σ} 正态分布的一些例子:
    成人的身高
    不同方向的气体分子的运动速度
    测量物体质量时的误差

    正态分布在现实生活有着非常多的例子,这一点可以从中心极限定理来解释,中心极限定理说的是一组独立同分布的随机样本的平均值近似为正态分布,无论随机变量的总体符合何种分布。即,只要样本数量足够大(大于等于50),无论总体是何种分布,样本均为正态分布。

    Python实现:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    
    # 生成大小为1000的符合N(0,1)正态分布的样本集,可以用normal函数自定义均值,标准差,也可以直接使用standard_normal函数
    s = numpy.random.normal(loc=0,scale=1,size=1000)
    s = numpy.random.standard_normal(size=1000)
    
    # 计算正态分布N(0,1)PDF
    x = numpy.linspace(-3,3,1000)
    p= stats.norm.pdf(x,loc=0, scale=1)
    
    # 计算正态分布N(0,1)CDF
    x = numpy.linspace(-3,3,1000)
    p= stats.norm.cdf(x,loc=0, scale=1)
    
    #比较N(0,1)的正态分布的真实概率密度和10000次随机抽样的结果
    x=numpy.linspace(-3,3,100)
    t= stats.norm.rvs(0,1,size=10000)
    p=stats.norm.pdf(x, 0, 1)
    
    fig, ax = plt.subplots(1, 1)
    sns.distplot(t,bins=100,hist_kws={'density':True}, kde=False,label = 'Distplot from 10000 samples')
    
    
    sns.lineplot(x,p,color='purple',label='True mass density')
    plt.title('Normal distribution')
    plt.legend(bbox_to_anchor=(1.05, 1))
    

    在这里插入图片描述

    2.3 指数分布(描述事件的时间间隔的概率)

    指数分布通常被广泛用在描述一个特定事件发生所需要的时间,在指数分布随机变量的分布中,有着很少的大数值和非常多的小数值。

    指数分布的概率密度函数为 f(x)={λeλx,x00,x<0 f(x)= \begin{cases} λe^{-λx} , & x \geq 0 \\ 0, & x < 0 \end{cases} 记为 X~E(λ), 其中λ被称为率参数(rate parameter),表示每单位时间发生该事件的次数。

    分布函数为 F(a)=P{Xa}=1eλa,a0 F(a) = P{\{X \leq a\}} = 1-e^{-λa}, a\geq 0 指数分布的一些例子:
    婴儿出生的时间间隔
    网站访问的时间间隔
    在产线上收到一个问题产品的时间间隔

    指数分布与泊松分布相互联系。指数分布公式中的λλ实际为泊松分布的期望(泊松分布公式中的λλ)的倒数。此处我们将泊松分布的期望(λλ)暂时成为μμ,则有μ=1λ,σ2=1λ2μ=\frac1λ, \sigma^2=\frac{1}{λ^2}

    详细例子请见:python-指数分布介绍.
    关于指数分布还有一个有趣的性质的是指数分布是无记忆性的,假定在等候事件发生的过程中已经过了一些时间,此时距离下一次事件发生的时间间隔的分布情况和最开始是完全一样的,就好像中间等候的那一段时间完全没有发生一样,也不会对结果有任何影响,用数学语言来表述是 P{X>s+tX>t}=P{X>s} P\{X>s+t | X> t\} =P\{X>s\}

    Python实现:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    
    # 生成大小为1000的符合E(1/2)指数分布的样本集,注意该方法中的参数为指数分布参数λ的倒数
    s = numpy.random.exponential(scale=2,size=1000)
    
    # 计算指数分布E(1)PDF
    x = numpy.linspace(0,10,1000)
    p= stats.expon.pdf(x,loc=0,scale=1)
    
    # 计算指数分布E(1)CDF
    x = numpy.linspace(0,10,1000)
    p= stats.expon.cdf(x,loc=0,scale=1)
    
    #比较E(1)的指数分布的真实概率密度和10000次随机抽样的结果
    from scipy import stats
    import matplotlib.pyplot as plt
    import seaborn as sns
    x=numpy.linspace(0,10,100)
    t= stats.expon.rvs(0,1,size=10000)
    p=stats.expon.pdf(x, 0, 1)
    
    fig, ax = plt.subplots(1, 1)
    sns.distplot(t,bins=100,hist_kws={'density':True}, kde=False,label = 'Distplot from 10000 samples')
    
    
    sns.lineplot(x,p,color='purple',label='True mass density')
    plt.title('Exponential distribution')
    plt.legend(bbox_to_anchor=(1, 1))
    

    在这里插入图片描述

    二、假设检验

    1、正态检验

    Shapiro-Wilk Test是一种经典的正态检验方法。

    H0: 样本总体服从正态分布

    H1: 样本总体不服从正态分布

    import numpy as np
    from scipy.stats import shapiro
    data_nonnormal = np.random.exponential(size=100)
    data_normal = np.random.normal(size=100)
    
    def normal_judge(data):
    	stat, p = shapiro(data)
    	if p > 0.05:
    		return 'stat={:.3f}, p = {:.3f}, probably gaussian'.format(stat,p)
    	else:
    		return 'stat={:.3f}, p = {:.3f}, probably not gaussian'.format(stat,p)
    
    # output
    normal_judge(data_nonnormal)
    # 'stat=0.850, p = 0.000, probably not gaussian'
    normal_judge(data_normal)
    # 'stat=0.987, p = 0.415, probably gaussian'
    

    2、卡方检验

    目的:检验两组类别变量是相关的还是独立的

    H0: 两个样本是独立的

    H1: 两组样本不是独立的

    from scipy.stats import chi2_contingency
    table = [[10, 20, 30],[6,  9,  17]]
    stat, p, dof, expected = chi2_contingency(table)
    print('stat=%.3f, p=%.3f' % (stat, p))
    if p > 0.05:
    	print('Probably independent')
    else:
    	print('Probably dependent')
    
     # output
    #stat=0.272, p=0.873
    #Probably independent
    

    3、t检验

    目的:检验两个独立样本集的均值是否具有显著差异

    H0: 均值是相等的

    H1: 均值是不等的

    from scipy.stats import ttest_ind
    import numpy as np
    data1 = np.random.normal(size=10)
    data2 = np.random.normal(size=10)
    stat, p = ttest_ind(data1, data2)
    print('stat=%.3f, p=%.3f' % (stat, p))
    if p > 0.05:
    	print('Probably the same distribution')
    else:
    	print('Probably different distributions')
        
    # output
    # stat=-1.382, p=0.184
    # Probably the same distribution
    

    4、ANOVA检验

    目的:与t-test类似,ANOVA可以检验两组及以上独立样本集的均值是否具有显著差异

    H0: 均值是相等的

    H1: 均值是不等的

    from scipy.stats import f_oneway
    import numpy as np
    data1 = np.random.normal(size=10)
    data2 = np.random.normal(size=10)
    data3 = np.random.normal(size=10)
    stat, p = f_oneway(data1, data2, data3)
    print('stat=%.3f, p=%.3f' % (stat, p))
    if p > 0.05:
    	print('Probably the same distribution')
    else:
    	print('Probably different distributions')
     
    # output
    # stat=0.189, p=0.829
    # Probably the same distribution
    

    5、Mann-Whitney U检验

    目的:检验两个样本集的分布是否相同

    H0: 两个样本集的分布相同

    H1: 两个样本集的分布不同

    from scipy.stats import mannwhitneyu
    data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -1.869]
    data2 = [1.142, -0.432, -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169]
    stat, p = mannwhitneyu(data1, data2)
    print('stat=%.3f, p=%.3f' % (stat, p))
    if p > 0.05:
    	print('Probably the same distribution')
    else:
    	print('Probably different distributions')
    
    # output
    # stat=40.000, p=0.236
    # Probably the same distribution
    
    展开全文
  • 自然语言处理(NLP)的一些常见任务有:文本分类、指代消歧、自动摘要、机器翻译、主题识别等。传统的处理方法是基于规则的,现在更倾向于使用机器学习或深度学习的方法解决。那么如何在计算机中表达一段文本/一个词...

    自然语言处理(NLP)的一些常见任务有:文本分类、指代消歧、自动摘要、机器翻译、主题识别等。传统的处理方法是基于规则的,现在更倾向于使用机器学习或深度学习的方法解决。那么如何在计算机中表达一段文本/一个词的意思呢?第一步必然是将这些语言特征转化为量化的表达方式。本篇文章总结一下NLP中常用的文本特征表示方式,并提供实际案例和代码实现,用于解决文本分类问题。

    1. 离散表示(Discrete Representation)

    1.1 One-Hot,独热表示法

    NLP 中最常用、最传统的词特征表示方式是采用One-Hot 编码,即每一个词特征都被表示成一个很长的向量,其长度等于词表大小,当前词对应位置为1,其他位置为0。

    举个简单的例子,如果语料中有以下三段内容:

    建立的词表中词汇依次为:I,like,deep,learning,NLP,enjoy, flying .

    将第一句中的词汇用 One-Hot 的方法表示:

    但是这种表示方式存在显而易见的问题:

    \1. 不同词之间总是正交的,无法衡量不同词之间的相似关系。

    \2. 只能反映每个词是否出现,但无法突出词之间重要性的区别。

    1.2 Bag of Words(BOW),词袋表示法

    在One-Hot 表示法的基础上,对词表中的每一个词在该文本出现的频次进行记录,以表示当前词在该文本的重要程度。例如,对上例中的文本进行 Bag of Words表示:

    但这种表示方式只能表达词在当前文本中的重要程度。很多停用词由于频次较高,权重很大。为了表示词特征在整个语料中重要程度,可以使用TF-IDF对词特征加权。

    >> TF:词频,即每个词在该文本中的频数,表示该词的重要程度。

    >> IDF: 倒排文档频率。如果有些词在所有文章中出现的次数(DF,文档频率)都很多,可能是停用词或者常见词,一般重要性不高。IDF是DF的倒数形式,值越大说明该词越重要。

    TF*IDF提供了一种词重要程度的较合理的度量。

    对上述文本进行TF-IDF权重表示后的结果:

    相比较只计算频数的Bag of Words表示,I 和 like 权重被降低了,看起来更合理。但这种方式仍然存在几点问题:

    \1. 词之间是独立的,无法提供词序信息和上下文信息。

    \2. 数据十分稀疏。

    1.3 N-Gram,N元组表示法

    上述提到的Bag of Words表示方法每个词都是独立的,忽略了词序问题。增加N-Gram特征可以获取局部的上下文信息。

    以 Bigram 为例重新构建词典:I, like, deep, learning, NLP, enjoy, flying, I like, deep learning, like deep,like NLP, I enjoy, enjoy flying

    注意到词汇表的长度从7增加到13, 使用One-Hot 每个词被表示为13维的向量:

    使用 Bag of Words 结合TF-IDF Weight,每段文本被表示为13维的向量:

    当然,这种方法也有它自己的缺陷:

    \1. N-Gram 中随着N的增大增加了更多前后文信息,但是词表的维度也会急剧增大。(通常选取2~3)

    \2. 语料库的增加会导致词表维度不断增大,同时N-Gram词序列也急剧增大。

    \3. 基于词表示:词之间的关系无法度量 。

    \4. 数据十分稀疏。

    1.4 实例: Bag of Words + SVM 分类实现

    下面举个简单的例子来展示词袋模型的应用。

    >> 训练语料:一些公开网站的信息流新闻语料,使用其中的语料标题和网站提供的分类标签。

    >> 特征表示:使用 jieba 进行分词,并进行 Bag of Words 表示。

    >> 模型: 使用机器学习模型SVM 实现文本分类。本次实现使用 sklearn中的SGD分类器,设置loss为hinge损失。

    代码实现:

    2. 分布表示(Distributed Representation)

    Distributed representation 被称为“Word Representation”或“Word Embedding”, 中文也叫“词向量”或“词嵌入”,1986 年由Hinton 在论文《Learning distributed representations of concepts》中提出。

    2.1 Co-Occurrence 词向量

    上文中提到的几种离散表示方式存在诸多问题,如无法提供充分的上下文的信息、词之间的联系无法度量,即使间接的增加n-gram特征也会导致词表维度急剧增大。一种解决办法是使用上下文来表示单词,这是NLP中很现代的一种想法。2005 年 Rohde等在《An Improved Model of Semantic Similarity Based on Lexical Co-Occurrence》中介绍了使用共现矩阵(Co-Occurrence matrix) 结合SVD降维处理的方法,实现了使用上下文表示单词。

    共现是指不同的词同时出现的文档数。继续使用上面的例子,选择窗宽为1,共现矩阵表示为

    上述共线矩阵存在维度灾难和数据稀疏的问题。一种想法是高维信息用低维的向量表征,因此需要通过降维的方法来解决,一种常用的方法是奇异值分解(SVD)。

    对上例中的共现矩阵进行分解后,各词在二维坐标中的位置:

    即使是结合降维技术的Co-Occurrence matrix 方法也存在一些问题:

    \1. 时间复杂度高,尤其对百万级的单词或者文档表现就很糟糕了。

    \2. 新词或新文本难以做到及时更新。

    \3. 相对于 deep learning 模型, 会有不同的学习框架。

    2.2 Word2Vec 词向量

    2013年Google 开源了一款直接计算低维词向量的工具 ——Word2Vec,不仅能够在百万级的词典亿级数据集上高效训练,而且能够很好的度量词与词之间的相似性。

    先回顾一下统计语言模型,2003年Bengio等人用三层的神经网络构建了统计语言模型的框架(Neural Network Language Model,简称NNLM),其基本思想是:

    \1. 假定词表中的每个词都对应一个连续的特征向量。

    \2. 假定一个连续平滑的概率模型,输入一段词向量序列,可以输出这个序列的联合概率。

    \3. 同时学习词向量和概率模型中的参数。

    模型的网络结构如下图:

    NNLM 的问题是:只能处理定长序列,而且训练速度慢。

    2013 年Mikolov对原始NNLM 进行了一些改造:

    \1. 移除前向反馈神经网络中的非线性hidden layer,直接将中间层的embedding layer 与 softmax layer 连接。

    \2. 输入所有词向量到一个embedding layer 中 。

    \3. 将特征词嵌入上下文环境。这是Word2Vec的第一个模型——CBoW。

    CBoW的结构图如下:

    从数学上看CBoW等价与一个词袋模型的向量乘以一个embedding 矩阵,从而得到一个embedding 向量。实际上CBoW是从周边词到中心词的训练中学习到的词向量,相反如果从中心词到周边词训练得到词向量的方法是word2vec的另一个模型——Skip-Gram。

    Skip-Gram 的主要思路:预测一个中心词窗口内(窗口长度为c)的周边单词概率。

    目标函数:对于一个中心词其目标为最大化其周边任意单词的log概率。

    Skip-Gram 本质是计算输入词的输入向量与目标词的输出向量之间的余弦相似度,再经过softmax 归一化。显然对词典里的所有词计算相似度并归一化是一件极其耗时的事情。因此,Mikolov 引入两种优化算法:Herarchical Softmax 和 Negative Sampling。

    2.3 GloVe 词向量

    比较以Co-Occurrence为代表的计数方法和word2vec为代表的直接预测方法。

    GloVe 思路和Word2Vec很相似,但充分考虑了词的共现情况。而且训练速度更快,在大规模、小规模语料上性能都能表现的很好。其优化目标函数为:

    2.4 实例: fastText 分类中训练词向量

    类似于 Word2Vec 中 CBoW 模型,fastText 的分类模型更灵活的使用了 Hierarchical Softmax,主要体现在:

    \1. Wordvec 最终在输入层得到词向量,输出层对应的 Herarchical Softmax 也会生成一系列的向量,但最终都不会使用。而fastText的输出层对应是分类的label,目的是遍历分类树的所有叶节点,找到概率最大的label。

    \2. Word2Vec的输入是上下文窗口内的词,而fastText 对应的整个文本,包括周边词和 N-Gram的内容。

    模型: 继续使用上面处理好的test和train数据,训练fastText 的分类模型。

    或直接使用命令行执行, 词向量结果将保存在文件model.vec中。

    对于数据训练样本不充足时,最好使用别人训练好的词向量,但要注意得使用相同内容领域的词向量, 另外要调整dim 参数,使其与 pretrainedVectors 具有相同维数。

    3. 小结(Brief Summary)

    文本特征的向量表示是NLP的基础,也是直接影响模型效果的重要因素。离散的表示结合传统的机器学习模型已经有了较好的效果,但存在缺少上下文信息、数据稀疏等问题。分布式的表达方式不仅能够使用到上下文信息进行表征、建立词与词之间的联系,而且在具体任务中也能很好地利用神经网络进行传播。

    4. 参考资料(Reference Material)

    >> A Neural Probabilistic Language Model(Bengio et al., 2003)

    >> word2vec(Mikolov et al. 2013)

    >> Improving Word Representations via Global Context and Multiple Word Prototypes(Eric H. Huang et al. 2012)

    >> Bag of Tricks for Efficient Text Classification (A. Joulin, E. Grave, P. Bojanowski, T. Mikolov, 2016)

    >> A Primer on Neural Network Models for Natural Language Processing(Yoav Goldberg , 2015)

    >> 斯坦福大学“深度学习与自然语言处理”课程:CS224d: Deep Learning for Natural Language Processing,word vector部分的slides

    展开全文
  • 常见概率分布介绍

    千次阅读 2019-07-11 18:44:38
    常见概率分布 Bernoulli分布 Bernoulli分布是单个二值随机变量分布, 单参数ϕ​\phi​ϕ​∈[0,1]控制,ϕ​\phi​ϕ​给出随机变量等于1的概率. 主要性质有: P(x)=px(1−p)1−x={p if x=1q if&...
  • 概率论-常见分布

    2020-04-02 22:14:57
    伯努利(Bernoulli)分布 伯努利分布又称两点分布,是由单个参数(parameter)p描述的最简单的离散分布。概率密度函数(probability density function) Ber(p)为 二项(Binomial)分布 二项分布是由两个参数nn和pp...
  • 概率论 - 常见分布(及其分布表)

    万次阅读 多人点赞 2020-04-19 17:21:36
    离散型的分布 一,0-1分布 有2种结果,实验只做1次。 P(X = k) = pk(1-p)1-k 数学期望:E(X) = p 方差:Var(X)=p(1-p) 二,几何分布 P(A) = p,事件A在第k次首次发生(前k-1次均未发生)。 记作:X ~ G(p) P(X =...
  • 几种常见分布

    2017-06-19 12:10:42
    1.伯努利分布 试验E只有两个结果:A或者A。称E试验为 伯努利试验。 设P(A)=p,此时P(A)=1-p。 设随机变量X只可能取值0或者1,分布律为: ...随机变量X表示 n重伯努利试验 中事件A发生的次数,分布律为:
  • [基础] 常见分布

    2016-04-07 23:46:00
    统计学上的几种常见分布 二项分布(Binomial distribution)  相互独立实验序列,yes/no的出现次数为x/n-x的概率 多项分布(Multinomial distribution)  相互独立实验序列,k个结果的出现次数为x1, x2,..., ...
  • 统计学常见分布、概念

    万次阅读 2018-07-14 15:22:07
    原址非常有必要搞清楚统计学种一些常用的分布!!!离散型随机变量分布1.两点分布/伯努利分布伯努利分布是二项分布在n=1时的特例。一次随机试验,成功概率为p,失败概率为q=1-p。伯努利分布2.二项分布二项分布...
  • 1.概率分布 λ表示单位时间(面积或体积等)该事件平均发生次数(到达率) 则p(x=k)表示单位时间(面积或体积等)该事件发生k次的概率。 则p(N(t)=k)表示t时间,该事件发生k次的概率。 2.数字特征 易知,...
  • 三、常见分布 1.均匀分布 2.二项分布和几何分布 3. 泊松分布 4.正态分布 一、期望 期望这个概念,初高中就学过了吧,所以这里就简单说一下定义。 1.离散型随机变量的期望 2.连续型随机变量的期望 3....
  • 常见的概率分布

    千次阅读 2019-02-27 21:09:44
    常见的概率分布 目录 常见的概率分布 Bernoulli(伯努利)分布: Multinouli分布(范畴分布) 高斯分布(正态分布) 指数分布 Laplace分布 Bernoulli(伯努利)分布: 二值的随机变量,满足如下条件 ...
  • 常见分布与假设检验一、一般随机变量二、常见分布1.离散型分布(1)二项分布(2)泊松分布(3)几何分布(4)负二项分布(5)超几何分布2.连续型分布(1)均匀分布(2)正态分布(3)指数分布(4)Γ分布(5)威布尔...
  • 概率论:常见概率分布

    万次阅读 2014-09-05 09:54:52
    常见离散概率分布 Note: 一般的二项分布是n次独立的伯努利试验的和。它的期望值和方差分别等于每次单独试验的期望值和方差的和。 皮皮blog 常见连续概率分布 常见的概率分布_文库下载...
  • 1. 介绍连续型随机变量的分布函数及其概率密度 2. 介绍均匀分布,指数分布,正态分布的性质以及必要性证明
  • 概率分布有两种类型:离散(discrete)概率分布...离散概率分布的例子有伯努利分布(Bernoulli distribution)、二项分布(binomial distribution)、泊松分布(Poisson distribution)和几何分布(geometric distribut
  • 随机变量及其分布和几种常见分布

    万次阅读 2018-05-27 21:47:09
    分布律也可以用表格的形式来表示 ( I ) ( I ) (I) (0-1)分布 (离散型) 设随机变量 X X X 只可能取 0 0 0 与 1 1 1 两个值,它的分布律是 P { X = k } = p k ( 1 − p ) 1 − k , k = 0 , 1 ( 0 < p < ...
  • 1 导入包导入本次实验所用的4种常见分布,连续分布的代表:beta分布、正态分布,均匀分布,离散分布的代表:二项分布。import numpy as np from scipy.stat...
  • 概率论中的常见分布

    万次阅读 2016-09-22 15:56:23
    概率论中的常见分布 概率分布描述的是随机变量不同取值(可以是点或者区间)时概率取值的规律。随机事件X常常分为离散型随机变量和连续型随机变量考虑。对于离散型随机变量X,它的取值常常是一个实数;而连续性随机...
  • Task3:常见分布与假设检验(3天)学习任务知识点代码实现 91-听说大家很喜欢篮球队-tang 学习任务 理论部分 离散型分布,连续型分布,python实现及可视化; 假设检验步骤及两类错误解读; 假设检验的python实战;...
  • 文章目录机器学习中常见的概率分布1.Bernoulli分布(伯努利分布)2.Multinoulli分布(多项式分布的一个特例)3.高斯分布4.指数分布和Laplace分布(拉普拉斯分布)5.Dirac分布(狄拉克分布)和经验分布 机器学习中...
  • 常见分布与假设检验一、一般随机变量1 离散型随机变量2 连续型随机变量二、常见的离散型分布1 二项分布2 泊松分布3 二项分布与泊松分布之间的关系4 其他离散型随机分布几何分布负二向分布超几何分布三 常见的连续型...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 132,378
精华内容 52,951
关键字:

常见分布的表示方法