精华内容
下载资源
问答
  • 放回不放回概率计算

    千次阅读 2019-10-08 15:48:15
    有A,B,C…共9种不同卡片,每种卡片都有13张,每次取一张,如果是A卡片就拿走,不是就放回,求:取多少次,能让A卡片拿走大于等于3次的概率大于90%? 思路 考虑每一次取牌对当前状态的影响,考虑取牌分别是A和非A对当前状态的...

    有A,B,C…共9种不同卡片,每种卡片都有13张,每次取一张,如果是A卡片就拿走,不是就放回,求:取多少次,能让A卡片拿走大于等于3次的概率大于90%?

    思路

    考虑每一次取牌对当前状态的影响,考虑取牌分别是A和非A对当前状态的影响,构造状态转移函数,计算每一次取牌后各个状态的概率。

    参考代码
    iteration_id = 0
    num = 14
    pl = [0 for i in range(num)]
    state = [0 for i in range(num)]
    state[0] = 1
    
    for i in range(num):
        pl[i] = (13 - i) / (117 - i)
    
    while sum(state[3:]) <= 0.9:
        iteration_id += 1
        for i in range(num - 1, 0, -1):
            state[i] = state[i] * (1 - pl[i]) + state[i - 1] * pl[i - 1]
        state[0] = state[0] * (1 - pl[0])
    
    print("Total need", iteration_id, "cards")
    
    问题来源

    https://www.zhihu.com/question/349265793/answer/848276041

    展开全文
  • 放回抽样与不放回抽样

    千次阅读 2015-08-02 08:06:00
    考虑N个球,n白,其余黑,分别计算放回不放回抽样时,第k次取出白球的概率放回:p=n/N 不放回:第一次必然是n/N  第二次:考虑到第一次可能取出白或黑,p=p(Np-1)/(N-1) + (1-p)Np/(N-1)=n/N  ……  第...

    考虑N个球,n白,其余黑,分别计算放回和不放回抽样时,第k次取出白球的概率。

    放回:p=n/N

    不放回:第一次必然是n/N

               第二次:考虑到第一次可能取出白或黑,p=p(Np-1)/(N-1) + (1-p)Np/(N-1)=n/N

               ……

               第k次:p=n/N

               或者这样考虑:按对称性,每个球及每个白球在第k次被取出的概率是相同的。

     

    此处注意,虽然不放回时每次取出白球概率相等,但每次试验是非独立的。

    设A1为第一次白球,A2为第二次白球,P(A1)=n/N,P(A2)=n/N,But,P(A1A2)=P(A1)(PA2|A1) != n/N。

    展开全文
  • M种稀有卡牌,且抽出不放回。小贝希望收集到K种稀有卡牌,她想知道期望需要多少次获胜才能实现这个目标。 分析: 而期望具有可加性。 把所有稀有卡牌都抽一遍的期望 = 每次抽得一个稀有卡牌的期望的和。 至少抽出k...

    题目链接:https://ac.nowcoder.com/acm/problem/19777
    题目大意:
    有N种卡牌。M种稀有卡牌,且抽出不放回。小贝希望收集到K种稀有卡牌,她想知道期望需要多少次获胜才能实现这个目标。

    分析:
    在这里插入图片描述

    而期望具有可加性。
    把所有稀有卡牌都抽一遍的期望 = 每次抽得一个稀有卡牌的期望的和。

    至少抽出k张稀有卡牌的期望 = 抽出k张每次抽的一个稀有卡牌的期望和。

    答案为:
    在这里插入图片描述

    #include<bits/stdc++.h>
    using namespace std;
    int main()
    {
        int caset,cas=0;scanf("%d",&caset);
        while(caset--) {
            int n,m,k;scanf("%d%d%d",&n,&m,&k);
            double ans = 0;
            for(int i=0;i<k;i++) {
                ans += 1.0 * (n - i) / (m  - i);
            }
            printf("Case #%d: %.6f\n",cas++,ans);
        }
        return 0;
    }
    
    展开全文
  • 本文详细介绍了隐马尔科夫基本问题中的概率计算问题,首先阐述了它的计算条件、计算目标和求解方式。然后,对求解方式中的直接计算法、前向算法和后向算法进行了分析,并指明了不足的地方。此外,提供了完整的实例,...

    概率计算问题又称评价问题(Evaluation Problem)

    已知条件:给定模型 λ = [ A , B , π ] \lambda=[A,B,\pi] λ=[A,B,π]和观测序列 O = ( o 1 , o 2 , o 3 , . . . , o n ) O=(o_{1},o_{2},o_{3},...,o_{n}) O=(o1,o2,o3,...,on)
    求解目标:计算在模型 λ \lambda λ和观测序列 O O O出现情况下的 P ( O ∣ λ ) P(O|\lambda) P(Oλ),也可以认为是求解观测序列和评估模型之间的匹配程度。
    求解方式:直接计算法、前向算法、后向算法

    例子:有三个盒子,编号1、2、3,每个盒子都有红、白两种颜色的球,有放回的从盒子里拿1个球,总共进行了四次,出现“红、白、红、白”的概率是多少?(初始状态概率矩阵 π = ( 1 , 0 , 0 ) \pi=(1,0,0) π=(1,0,0)

    表1. 盒子之间的转移概率
    盒子盒1盒 2盒3
    盒10.40.60
    盒200.80.2
    盒 3001
    表2. 每个盒子中红、白球的个数
    盒子盒1盒 2盒3
    红球748
    白球362

    解析:由表1和表2,可知状态转移矩阵A和观测概率B,此时“模型 λ = [ A , B , π ] \lambda=[A,B,\pi] λ=[A,B,π]和观测序列 O = ( 红 、 白 、 红 、 白 ) O=(红、白、红、白) O=()”为已知条件,求解目标是:“ O = ( 红 、 白 、 红 、 白 ) O=(红、白、红、白) O=()发生的概率,即 P ( O ∣ λ ) = ? P(O|\lambda)=? P(Oλ)=

    直接计算法(不提倡)

    通过列举所有可能长度为T的状态序列 S = ( s 1 , s 2 , s 3 , . . . , s T ) S=(s_{1},s_{2},s_{3},...,s_{T}) S=(s1,s2,s3,...,sT),求各个状态序列 S S S和观测序列 O O O的联合概率 P ( O , S ∣ λ ) P(O,S|\lambda) P(O,Sλ),然后对所有可能的状态序列求和,得到 P ( O ∣ λ ) P(O|\lambda) P(Oλ),求解方式如下( a i j 是 状 态 转 移 概 率 , b i j 是 观 测 概 率 a_{ij}是状态转移概率,b_{ij}是观测概率 aijbij):

    P ( O ∣ S , λ ) = b 11 b 22 b 33 . . . b T M P(O|S,\lambda)=b_{11}b_{22}b_{33}...b_{TM} P(OSλ)=b11b22b33...bTM

    P ( S ∣ λ ) = π 1 a 12 a 23 . . . a ( T − 1 ) T P(S|\lambda)=\pi_{1}a_{12}a_{23}...a_{(T-1)T} P(Sλ)=π1a12a23...a(T1)T

    P ( O , S ∣ λ ) = P ( O ∣ S , λ ) P ( S ∣ λ ) = π 1 b 11 a 12 b 22 a 23 b 33 . . . a ( T − 1 ) T b T M P(O,S|\lambda)=P(O|S,\lambda)P(S|\lambda) =\pi_{1}b_{11}a_{12}b_{22}a_{23}b_{33}...a_{(T-1)T}b_{TM} P(O,Sλ)=P(OSλ)P(Sλ)=π1b11a12b22a23b33...a(T1)TbTM

    P ( O ∣ λ ) = ∑ S ∈ S T P ( O , S ∣ λ ) = ∑ S 1 , S 2 , S 3 , . . . S T π 1 b 11 a 12 b 22 a 23 b 33 . . . a ( T − 1 ) T b T M P(O|\lambda)=\sum_{S∈S_{T}}P(O,S|\lambda) =\sum_{S_{1},S_{2},S_{3},...S_{T}}\pi_{1}b_{11}a_{12}b_{22}a_{23}b_{33}...a_{(T-1)T}b_{TM} P(Oλ)=SSTP(O,Sλ)=S1,S2,S3,...STπ1b11a12b22a23b33...a(T1)TbTM

    理论上可以计算,但计算量很大,时间复杂度是 O ( T N T ) O(TN^T) O(TNT) N N N是状态的个数, T T T是观测列表的长度),因此不可行。

    解析:还是上面例子,如果 O = ( 红 、 白 、 红 、 白 ) O=(红、白、红、白) O=(),那么只要枚举 3 4 3^4 34个就行,分别求出对应的概率,再相加就行了,但要是 O = ( 红 、 白 、 红 、 . . . 、 白 ) O=(红、白、红、...、白) O=(...)有1000个,需要枚举 3 1000 3^{1000} 31000,这数目就不少了,因此该方法只要知道是什么就可以了,可行度不高。

    前向算法(重要)

    前向概率:在 λ \lambda λ给定的情况下,到时刻 t t t时,出现的观测序列为 o 1 , o 2 , o 3 , . . . , o t o_{1},o_{2},o_{3},...,o_{t} o1,o2,o3,...,ot且状态为 s i s_{i} si时的概率,记为:

    α t ( i ) = P ( o 1 , o 2 , o 3 , . . . , o t , s i ∣ λ ) \alpha_{t}(i)=P(o_{1},o_{2},o_{3},...,o_{t},s_{i}|\lambda) αt(i)=P(o1,o2,o3,...,ot,siλ)

    求解步骤

    1. 起始值: α 1 ( i ) = π i b i ( o 1 ) , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N \alpha_{1}(i)=\pi_{i}b_{i}(o_{1}),\:\:\:\:i=1,2,3,...,N α1(i)=πibi(o1),i=1,2,3,...,N

    2. 递推:当 t = 1 , 2 , 3 , . . . , T − 1 t=1,2,3,...,T-1 t=1,2,3,...,T1时, α t + 1 ( i ) = [ ∑ j = 1 N α t ( j ) α j i ] b i ( o t + 1 ) , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N \alpha_{t+1}^{(i)}=[\sum_{j=1}^{N}\alpha_{t}(j)\alpha_{ji}]b_{i}(o_{t+1}), \:\:\:\:i=1,2,3,...,N αt+1(i)=[j=1Nαt(j)αji]bi(ot+1),i=1,2,3,...,N

    3. 执行完步骤1和2,可得 P ( O ∣ λ ) = ∑ i = 1 N α T ( i ) , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N P(O|\lambda)=\sum_{i=1}^{N}\alpha_{T}(i),\:\:\:\:i=1,2,3,...,N P(Oλ)=i=1NαT(i),i=1,2,3,...,N

    此时,求解 P ( O ∣ λ ) P(O|\lambda) P(Oλ)的时间复杂度是 O ( N 2 T ) O(N^2T) O(N2T)

    递推求解,直到T时为止

    解析:对上面的例子进行求解,现在观测序列O=(红、白、红、白),初始状态概率矩阵 π = ( 1 , 0 , 0 ) \pi=(1,0,0) π=(1,0,0),状态转移矩阵A和观测概率B如下:

    A = [ 0.4 0.6 0 0 0.8 0.2 0 0 1 ] A=\begin{bmatrix} 0.4&amp; 0.6 &amp;0 \\ 0&amp;0.8 &amp;0.2 \\ 0 &amp; 0&amp; 1 \end{bmatrix} A=0.4000.60.8000.21 &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; \:\:\:\:\:\: B = [ 0.7 0.3 0.4 0.6 0.8 0.2 ] B=\begin{bmatrix} 0.7&amp; 0.3 \\ 0.4&amp;0.6 \\ 0.8 &amp; 0.2 \end{bmatrix} B=0.70.40.80.30.60.2

    1、当 t = 1 t=1 t=1时:
    α 1 ( 1 ) = π ∗ b 1 ( o 1 ) = 1 ∗ 0.7 = 0.7 \alpha_{1}(1)=\pi*b_{1}(o_{1})=1*0.7=0.7 α1(1)=πb1(o1)=10.7=0.7
    2、当 t = 2 t=2 t=2时:
    α 2 ( 1 ) = α 1 ( 1 ) ∗ a 11 ∗ b 1 ( o 2 ) = 0.7 ∗ 0.4 ∗ 0.3 = 0.084 \alpha_{2}(1)=\alpha_{1}(1)*a_{11}*b_{1}(o_{2})=0.7*0.4*0.3=0.084 α2(1)=α1(1)a11b1(o2)=0.70.40.3=0.084
    α 2 ( 2 ) = α 1 ( 1 ) ∗ a 12 ∗ b 2 ( o 2 ) = 0.7 ∗ 0.6 ∗ 0.6 = 0.252 \alpha_{2}(2)=\alpha_{1}(1)*a_{12}*b_{2}(o_{2})=0.7*0.6*0.6=0.252 α2(2)=α1(1)a12b2(o2)=0.70.60.6=0.252
    3、当 t = 3 t=3 t=3时:
    α 3 ( 1 ) = α 2 ( 1 ) ∗ a 11 ∗ b 1 ( o 3 ) = 0.084 ∗ 0.4 ∗ 0.7 = 0.02352 \alpha_{3}(1)=\alpha_{2}(1)*a_{11}*b_{1}(o_{3})=0.084*0.4*0.7=0.02352 α3(1)=α2(1)a11b1(o3)=0.0840.40.7=0.02352
    α 3 ( 2 ) = [ α 2 ( 1 ) ∗ a 12 + α 2 ( 2 ) ∗ a 22 ] ∗ b 2 ( o 3 ) = ( 0.084 ∗ 0.6 + 0.252 ∗ 0.8 ) ∗ 0.4 = 0.1008 \alpha_{3}(2)=[\alpha_{2}(1)*a_{12}+\alpha_{2}(2)*a_{22}]*b_{2}(o_{3})=(0.084*0.6+0.252*0.8)*0.4=0.1008 α3(2)=[α2(1)a12+α2(2)a22]b2(o3)=(0.0840.6+0.2520.8)0.4=0.1008
    α 3 ( 3 ) = α 2 ( 2 ) ∗ a 23 ∗ b 3 ( o 3 ) = 0.252 ∗ 0.2 ∗ 0.8 = 0.04032 \alpha_{3}(3)=\alpha_{2}(2)*a_{23}*b_{3}(o_{3})=0.252*0.2*0.8=0.04032 α3(3)=α2(2)a23b3(o3)=0.2520.20.8=0.04032
    4、当 t = 4 t=4 t=4时:
    α 4 ( 1 ) = α 3 ( 1 ) ∗ a 11 ∗ b 1 ( o 4 ) = 0.02352 ∗ 0.4 ∗ 0.3 = 0.0028224 \alpha_{4}(1)=\alpha_{3}(1)*a_{11}*b_{1}(o_{4})=0.02352*0.4*0.3=0.0028224 α4(1)=α3(1)a11b1(o4)=0.023520.40.3=0.0028224
    α 4 ( 2 ) = [ α 3 ( 1 ) ∗ a 12 + α 3 ( 2 ) ∗ a 22 ] ∗ b 2 ( o 4 ) = ( 0.02352 ∗ 0.6 + 0.1008 ∗ 0.8 ) ∗ 0.6 = 0.0568512 \alpha_{4}(2)=[\alpha_{3}(1)*a_{12}+\alpha_{3}(2)*a_{22}]*b_{2}(o_{4})=(0.02352*0.6+0.1008*0.8)*0.6=0.0568512 α4(2)=[α3(1)a12+α3(2)a22]b2(o4)=(0.023520.6+0.10080.8)0.6=0.0568512
    α 4 ( 3 ) = [ α 3 ( 2 ) ∗ a 23 + α 3 ( 3 ) ∗ a 33 ] ∗ b 3 ( o 4 ) = ( 0.1008 ∗ 0.2 + 0.04032 ∗ 1 ) ∗ 0.2 = 0.012096 \alpha_{4}(3)=[\alpha_{3}(2)*a_{23}+\alpha_{3}(3)*a_{33}]*b_{3}(o_{4})=(0.1008*0.2+0.04032*1)*0.2=0.012096 α4(3)=[α3(2)a23+α3(3)a33]b3(o4)=(0.10080.2+0.040321)0.2=0.012096
    此时,可求 P ( O ∣ λ ) = α 4 ( 1 ) + α 4 ( 2 ) + α 4 ( 3 ) = 0.0028224 + 0.0568512 + 0.012096 = 0.0717696 P(O|\lambda)=\alpha_{4}(1)+\alpha_{4}(2)+\alpha_{4}(3)=0.0028224+0.0568512+0.012096=0.0717696 P(Oλ)=α4(1)+α4(2)+α4(3)=0.0028224+0.0568512+0.012096=0.0717696

    计算流程图如图2所示,其中初始状态概率、状态转移概率和观测概率为0的线没有画

    计算流程图

    后向算法(和前向算法差不多)

    后向概率:在 λ \lambda λ给定的情况下,并且时刻 t t t的状态为 s i s_{i} si的条件下,观测序列 o t + 1 , o t + 2 , o t + 3 , . . . , o T o_{t+1},o_{t+2},o_{t+3},...,o_{T} ot+1,ot+2,ot+3,...,oT的概率,记为:

    β t ( i ) = P ( o t + 1 , o t + 2 , o t + 3 , . . . , o T ∣ λ , s i ) \beta_{t}(i)=P(o_{t+1},o_{t+2},o_{t+3},...,o_{T}|\lambda,s_{i}) βt(i)=P(ot+1,ot+2,ot+3,...,oTλ,si)

    求解步骤

    1. 起始值: β 1 ( i ) = 1 , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N \beta_{1}(i)=1,\:\:\:\:i=1,2,3,...,N β1(i)=1,i=1,2,3,...,N T T T时刻的状态,后向概率都为1)

    2. 递推:当 t = T − 1 , T − 2 , T − 3 , . . . , 1 t=T-1,T-2,T-3,...,1 t=T1,T2,T3,...,1时, β t ( i ) = ∑ j = 1 N α i j b j ( o t + 1 ) β t + 1 ( j ) , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N \beta_{t}^{(i)}=\sum_{j=1}^{N}\alpha_{ij}b_{j}(o_{t+1})\beta_{t+1}(j), \:\:\:\:i=1,2,3,...,N βt(i)=j=1Nαijbj(ot+1)βt+1(j),i=1,2,3,...,N

    3. 执行完步骤1和2,可得 P ( O ∣ λ ) = ∑ i = 1 N π i b i ( o 1 ) β 1 ( i ) , &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; i = 1 , 2 , 3 , . . . , N P(O|\lambda)=\sum_{i=1}^{N}\pi_{i}b_{i}(o_{1})\beta_{1}(i),\:\:\:\:i=1,2,3,...,N P(Oλ)=i=1Nπibi(o1)β1(i),i=1,2,3,...,N

    反向递推求解,直到时刻1时为止

    解析:使用后向算法对上面的例子进行求解,观测序列为 O = ( 红 、 白 、 红 、 白 ) O=(红、白、红、白) O=(),初始状态概率矩阵 π = ( 1 , 0 , 0 ) \pi=(1,0,0) π=(1,0,0),状态转移矩阵A和观测概率B如下:

    A = [ 0.4 0.6 0 0 0.8 0.2 0 0 1 ] A=\begin{bmatrix} 0.4&amp; 0.6 &amp;0 \\ 0&amp;0.8 &amp;0.2 \\ 0 &amp; 0&amp; 1 \end{bmatrix} A=0.4000.60.8000.21 &MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace;&MediumSpace; \:\:\:\:\:\: B = [ 0.7 0.3 0.4 0.6 0.8 0.2 ] B=\begin{bmatrix} 0.7&amp; 0.3 \\ 0.4&amp;0.6 \\ 0.8 &amp; 0.2 \end{bmatrix} B=0.70.40.80.30.60.2

    1、当 t = 4 t=4 t=4时:

    β 4 ( i ) = 1 , &MediumSpace;&MediumSpace; i = 1 , 2 , 3 \beta_{4}(i)=1,\:\:i=1,2,3 β4(i)=1,i=1,2,3

    2、当 t = 3 t=3 t=3时:

    β 3 ( 1 ) = ∑ j = 1 N α 1 j b j ( o 4 ) β 4 ( j ) = 0.48 \beta_{3}(1)=\sum_{j=1}^{N}\alpha_{1j}b_{j}(o_{4})\beta_4(j)=0.48 β3(1)=j=1Nα1jbj(o4)β4(j)=0.48

    β 3 ( 2 ) = ∑ j = 1 N α 2 j b j ( o 4 ) β 4 ( j ) = 0.52 \beta_{3}(2)=\sum_{j=1}^{N}\alpha_{2j}b_{j}(o_{4})\beta_4(j)=0.52 β3(2)=j=1Nα2jbj(o4)β4(j)=0.52

    β 3 ( 3 ) = ∑ j = 1 N α 3 j b j ( o 4 ) β 4 ( j ) = 0.2 \beta_{3}(3)=\sum_{j=1}^{N}\alpha_{3j}b_{j}(o_{4})\beta_4(j)=0.2 β3(3)=j=1Nα3jbj(o4)β4(j)=0.2

    3、当 t = 2 t=2 t=2时:

    β 2 ( 1 ) = ∑ j = 1 N α 1 j b j ( o 3 ) β 3 ( j ) = 0.2592 \beta_{2}(1)=\sum_{j=1}^{N}\alpha_{1j}b_{j}(o_{3})\beta_3(j)=0.2592 β2(1)=j=1Nα1jbj(o3)β3(j)=0.2592

    β 2 ( 2 ) = ∑ j = 1 N α 2 j b j ( o 3 ) β 3 ( j ) = 0.1984 \beta_{2}(2)=\sum_{j=1}^{N}\alpha_{2j}b_{j}(o_{3})\beta_3(j)=0.1984 β2(2)=j=1Nα2jbj(o3)β3(j)=0.1984

    β 2 ( 3 ) = ∑ j = 1 N α 3 j b j ( o 3 ) β 3 ( j ) = 0.16 \beta_{2}(3)=\sum_{j=1}^{N}\alpha_{3j}b_{j}(o_{3})\beta_3(j)=0.16 β2(3)=j=1Nα3jbj(o3)β3(j)=0.16

    4、当 t = 1 t=1 t=1时:

    β 1 ( 1 ) = ∑ j = 1 N α 1 j b j ( o 2 ) β 2 ( j ) = 0.102528 \beta_{1}(1)=\sum_{j=1}^{N}\alpha_{1j}b_{j}(o_{2})\beta_2(j)=0.102528 β1(1)=j=1Nα1jbj(o2)β2(j)=0.102528

    β 1 ( 2 ) = ∑ j = 1 N α 2 j b j ( o 2 ) β 2 ( j ) = 0.132352 \beta_{1}(2)=\sum_{j=1}^{N}\alpha_{2j}b_{j}(o_{2})\beta_2(j)=0.132352 β1(2)=j=1Nα2jbj(o2)β2(j)=0.132352

    β 1 ( 3 ) = ∑ j = 1 N α 3 j b j ( o 2 ) β 2 ( j ) = 0.032 \beta_{1}(3)=\sum_{j=1}^{N}\alpha_{3j}b_{j}(o_{2})\beta_2(j)=0.032 β1(3)=j=1Nα3jbj(o2)β2(j)=0.032

    此时,可求 P ( O ∣ λ ) = ∑ i = 1 N π i b i ( o 1 ) β 1 ( i ) = 0.0717696 P(O|\lambda)=\sum_{i=1}^{N}\pi_{i}b_{i}(o_{1})\beta_1(i)=0.0717696 P(Oλ)=i=1Nπibi(o1)β1(i)=0.0717696

    结论:后向算法和前向算法计算结果完全一样,因此计算 P ( O ∣ λ ) P(O|\lambda) P(Oλ)的时候,可以任意选择一个算法。

    展开全文
  • 问:现有10件产品,3件次品,7件正品,不放回的取,求第三次取得次品的概率 分析:这是典型的用全概率公式的题目,但是也有方便计算的其他解法 法一:全概率公式 这个不用多解释了,解法如下 法二:排列 全...
  • 放回采样和无放回采样

    万次阅读 2017-09-26 10:09:44
    随机采样 可以分为随机欠采样和随机过采样...随机欠采样有两种类型分别为有放回和无放回两种,无放回欠采样在对多数类某样本被采样后不会再被重复采样,有放回采样则有可能。 放回子采样:bagging(bootstrap agg...
  • 本文给出了运用递归计算在n个球中任取m个球(不放回)共有多少种取法的解答,并进行了思路分析。
  • 它是用于不等概不放回抽样的总体量估计用的,这个估计量是这样子的: 其中表示当且仅当单元(有些文献也称为群)被抽中在样本(样本大小为)中,是被抽中在样本中的概率,称为包含概率(inclusion probability)。 ...
  • 转载自简书——隐马尔可夫模型 - HMM的三个问题 - 概率计算问题,把其中的有些公式排版做了简单修改!其中的后向概率算法有点难度! 目录 一、HMM案例回顾 二、HMM典型的3个问题 1、概率计算问题 2、学习问题 3...
  • 本文计算了三国杀中一些有趣的概率结果,包括:甄姬洛神的期望为1,与周瑜确定的1张相等,如果只比较洛神和英姿两个技能,前者是占优的。黄月英的期望值 ,并像想象的那么高,仅为0.798。黄盖的初始平均手牌大约为...
  • # 放回抽样:在整数区间[1,9]中有放回地抽取5次,求刚好抽出“1,2,3,4,5”的概率: # 记录放回抽样: def noted(): note = [] count = 0# 用于计算抽样次数 for each in range(1,6): while True: pick = random...
  • 基本公式 (1)排列Amn=(n−m)!n! A_n^m=\frac{(n-m)!}{n!} (2)组合(nm)=n!m!(n−m)! \binom nm=\frac{n!...bootstrap 抽样对 NN 个样本进行 bootstrap 抽样(又放回抽样)NN 次,则抽样构成的 NN 个数据
  • 放回随机抽样

    2015-08-14 21:46:29
    MATLAB程序,有放回随机抽样,实现随机抽样而且是有放回的,每次抽取样本一样。
  • 本文首先介绍马尔可夫过程和隐马尔可夫模型的基本概念,然后分别叙述和实现隐马尔可夫模型的概率计算算法、学习算法以及预测算法。 一、马尔可夫过程 马尔可夫过程 (Markov Process),因俄罗斯数学家安德烈 ·...
  • 在n个球中,任意取出m个(不放回),求有多少种不同取法? 熟悉那么? 大家都应该首先想到 我们所学习过的 排列组合! 这题就是典型的组合问题(从不同元素中抽取部分元素的问题) 组合(combination),数学的...
  • 组合数学-- 放回取样基础公式证明

    千次阅读 2017-09-06 14:31:59
    放回取样 用CR(m , r) 表示放回取样或者重复取样时一个m集合的r组合的数量,例如在允许放回取样的情况下,集合{a , b}的4个元素的组合可以得到下面的结果: {a,a,a,a}, {b,b,b,b}, {a,a,a,b}, {a,a,b,b}, {a,b,b,...
  • 概率算法1-应用定积分计算

    千次阅读 2018-01-14 22:07:14
     概率算法的特性:使用概率算法去处理同一个问题,计算两次会得到不同的计算结果。概率算法是对于我们在现实社会中是非常有效的,大家都是学理工科的,知道这里世界上是没有绝对的事情,也没有绝对发生的事情。我们...
  • 面试概率题目

    千次阅读 多人点赞 2019-08-12 08:59:39
    概率题目 现在的面试中,大部分公司都会问道概率相关的问题,我们现在给出几道常见的概率问题. 1. 三角形问题 题目: 给你一根铅笔,将铅笔折两次,组成三角形的概率是多大. 解析: 设: 铅笔长度是1, 折两次...计算得到...
  • 条件概率

    千次阅读 2019-03-13 09:45:00
    条件概率是概率计算中的一类比较容易出错的题目。 一、条件概率 一般的,设\(A\),\(B\)为两个事件,且\(P(A)>0\),则称\(P(B|A)=\cfrac{P(AB)}{P(A)}\)为在事件\(A\)发生的条件下,事件\(B\)发生的条件概率。 ...
  • 概率函数

    千次阅读 2015-08-26 23:02:00
    1、sample(1:6,4,replace=TRUE) 表示从1:6中,随机抽取4个数,replace=True 有放回的抽样,表示可以重复数据
  • # 前提:独立重复试验、有放回、只有两个结果 # 二项分布指出,随机一次试验出现事件A的概率如果为p,那么在重复n次试验中出现k次事件A的概率为: # f(n,k,p) = choose(n, k) * p**k * (1-p)**(n-k) ''' # ①定义二...
  • 概率试题---概率求解问题

    千次阅读 2015-04-16 15:32:07
    马路口,30分钟内看到汽车的概率是95%,那么在10分钟内看到汽车的概率是? 分析:将10分钟看成一个最小的独立事件,那么这个问题就可以转换这样叙述: 进行三次抽样抽到的概率为95%,那么每次抽到的概率是多少?...
  • 熵与生命 概率

    千次阅读 2016-11-04 11:55:19
    概率是真实反映变化到某状态的确信度。而熵反映的是从某时刻到另一时刻的状态有多难以确定。阻碍生命的不是概率,而是熵。 熵 熵是用来衡量我们对事物在跨时间后能产生不同状态的混乱度。 一
  • 离散型概率分布

    千次阅读 2018-12-23 13:28:59
    3) 泊松分布 一种小概率事件的分布,对于二项分布在n较大,p较小时的一种近似,便于计算。 4)几何分布 独立重复试验,直到首次试验成功的次数n.即:前n-1次都是失败,第n次成功。 5)负二项分布 独立重复试验,...
  • 常见概率

    万次阅读 2020-03-18 20:38:05
    从n个数中生成m个重复的随机数 import random for i in range(n): x = random.randint(i, n) if x < m: print(i) m -= 1 由这个for循环循环n次,且在满足条件时才输出i,可知,输出m个不同值的要求已满足...
  • 一个关于概率的问题的思考

    千次阅读 2016-10-19 00:00:46
    在解决这个问题的过程中,我认识到这是一个概率相关的问题,即使在过去我曾经设计过类似转盘抽奖这样的应用程序,可我并认为我真正搞清楚了这个问题,所以想在这篇文章中说说我对概率问题的相关思考。首先,我们来...
  • 关于抽奖概率

    千次阅读 2017-08-19 18:05:53
    关于抽奖概率 最近做一个抽奖系统,对现在已经有的抽奖系统关于概率的这个东西进行了...当你摸完一次以后,在把你摸到的乒乓放回到盒子里面,在进行摸。这些,你每次摸中红色球的概率都是1/100。于是这样就产生的一个
  • 先验概率与后验概率浅析

    千次阅读 2018-07-23 10:33:23
    先验概率和后验概率 先验(Apriori;又译:先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。它通常与后验知识相比较,后验意指“在...
  • ACM 概率&期望

    千次阅读 2017-06-26 11:17:17
    概率&期望好久没写博客了,最近刷完了概率期望的专题,特地总结一下。概率(1) 基本概率知识 学过概率论课程的话,下面的都是基础了。...全概率公式的关键在于划分样本空间,需要把所有可能情况

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 42,400
精华内容 16,960
关键字:

不放回的概率计算