精华内容
下载资源
问答
  • 最大期望算法

    2017-06-27 09:17:52
    原链接:https://community.bwbot.org/topic/132什么是最大期望算法在我们进行数据分析的... 最大期望算法(Expectation Maximization algorithm )就是这样一种分类算法。 原理原理上也是十分的简单的。对于一个随机

    原链接:https://community.bwbot.org/topic/132

    什么是最大期望算法

    在我们进行数据分析的时候经常会遇到这个的问题。我们有一系列的数据点,可以看出他们大致上属于不同的类别。比如下面的数据点。如何找到一种算法把这些点分类?

    0_1480936447212_ex8r_sm.png

    最大期望算法(Expectation Maximization algorithm )就是这样一种分类算法。

    0_1480936793260_ex8_sm.png

    原理

    原理上也是十分的简单的。对于一个随机过程来说,一般数据分布都是一个高斯分布。所以我们就可以假设这样的数据是几个高斯分布叠加出来的结果。下面只要通过一定的方法找到这些高斯分布的参数就可以了。为什么叫做最大期望呢?因为找到的分布是最有可能的产生这样的数据结果的分布。具体找参数的方法我就不介绍了,可以详细看这里

    如何在opencv里面使用最大期望算法

    在opencv中已经实现了EM算法,所以我们可以直接使用,官方文档
    这里是opencv官方给的sample code

    下面是我写的更简单一些的sample code。作用是对三维空间中的点进行归类。

      cv::Mat framePos = cv::Mat( vpKF.size(), 3, sizeof(float));
      for(size_t it = 0; it < vpKF.size(); it ++){
        framePos.at<float>(it * 3) = 0; // 构造数据
        framePos.at<float>(it * 3 + 1) = 0;
        framePos.at<float>(it * 3 + 2) = 0;
      }
    
      // 所有点的坐标信息都已经存入framePos
      cv::EM em = cv::EM(); // 创建一个EM对象
      cv::Mat labels;
      cv::Mat pos = cv::Mat( 1, 3, sizeof(float)); // pos是需要进行判断分类的点
      // 开始训练数据
      em.train( framePos, cv::noArray(), labels, cv::noArray() );
      // 开始判断分类
      em.predict(pos, cv::noArray())[1]; // 返回值就是分类
    展开全文
  • 最大期望算法 (EM算法)

    千次阅读 2018-10-21 16:54:05
    最大期望算法(Exception Maximization Algorithm,后文简称EM算法)是一种启发式的迭代算法,用于实现用样本对含有隐变量的模型的参数做极大似然估计。已知的概率模型内部存在隐含的变量,导致了不能直接用极大...

    注:文章出处:https://www.cnblogs.com/yahokuma/p/3794905.html

    算法定义

    最大期望算法(Exception Maximization Algorithm,后文简称EM算法)是一种启发式的迭代算法,用于实现用样本对含有隐变量的模型的参数做极大似然估计。已知的概率模型内部存在隐含的变量,导致了不能直接用极大似然法来估计参数,EM算法就是通过迭代逼近的方式用实际的值带入求解模型内部参数的算法。

    算法描述

    算法的形式如下:
    随机对参数赋予初值;
        While(求解参数不稳定){
           E步骤:求在当前参数值和样本下的期望函数Q;
           M步骤:利用期望函数重新计算模型中新的估计值;
    }
    

          上面的伪代码形式可能过于抽象,就结合一个实际的例子来说明。

          例子:存在3枚硬币A,B和C,抛出正面的概率是π,p和q。进行如下抛硬币的试验:先抛硬币A,如果A是正面则需要抛硬币B,否则就抛硬币C。如果B或C是正面结果为1,否则结果为0;独立进行n次试验。取n = 10,得到的观测结果如下:

                                1,1,0,1,0,0,1,0,1,1

          每一枚硬币的分布都是一个二项分布,而A,B,C三个硬币对应的事件之间又潜在有某种联系。用Y表示观测变量,对于第i次观测结果的值记作yi,用向量θ来表示整个模型中的未知参数π,p和q,则整个三币模型的概率可以表示为:

                                  

          如果采用最大似然估计法来求解公式(1),以此来估计模型中的参数,即求解下式:

                                  

            由于公式(1)内部包含了+号,很难直接求偏导求解得到参数的估计值。必须寻求其他的办法解决这个问题,现引入一个隐含变量Z表示在试验中抛掷A硬币的结果(1代表正面,0代表反面),就可以将原先的似然函数转换成下式:

                               

             我们给出E步骤中期望函数Q的定义如下,具体的证明会放到下一节:

                                     

    对于上面的例子, P(Z|Y, θ(i)) =(zπpy(1-p)1-y + (1-z)(1-π)qy(1-q)1-y)/ P(Y|θ),上式中没有未知的参数(Z的值在每次累加时被确定),所以可以直接算出具体的值。将计算出的结果带入(4)式我们就得到了期望函数。

             在M步骤中,分别对θ向量的每一个分量求其偏导,另偏导数的值等于零求出极大值得到新的参数估计值,重复以上两个步骤,直到收敛。

     理论与推导

           在推导EM算法之前,有一些基本的数学概念需要重新梳理一下,以便可以透彻得理解EM算法。

         a) 极大似然估计

      极大似然估计是最常用的一种点估计方法,极大似然估计基于的一个直观想法就是“概率最大的事件最有可能出现”。假设有一系列事件A1,A2,…,An被观测到发生了,且事件Ai发生的概率为pi,就有理由相信事件序列A1,A2,…,An的理论概率是最大的,所以有max pi(1<=i<=n),以此可以估计出概率模型中参数。

      利用极大似然估计方法进行参数估计,必须知道总体的概率分布类型。构造一个似然函数,将样本的观察值带入似然函数,对某一个参数求偏导数另其为零,算出极值点的参数值就是估计得到的参数结果,用θ表示需要估计的参数向量,xi表示第i个样本的观测结果,似然函数的形式可以是:

                         

      b) Jessen不等式

      Jessen不等式的形式如下:

      f(E(X)) ≥ E[f(x)],当函数f(x)是一个凹函数时成立,且等号只有满足对于任意x,都有E(X) = x时取到。

      要理解Jessen不等式,可以参考下图。在图中曲线f(x)上取任意两点x,y,有不等式f(1/2(x+y))≥ 1/2[f(x) + f(y)]恒成立,将这个不等式推广到多维向量且考虑向量分布不均匀的情况,不等式左边就是f(E(X)),右边就是E(f(x))。

      

      c) 最大下界函数

       要用极大似然估计方法来确定模型中的参数,就是要计算在似然函数L(θ)最大化的时候对应的参数的值,上一节中已经提过对于含有隐含变量的模型,直接通过求偏导数的方法来确定似然函数的极大值是很困难的。在EM算法的求解过程中,每一次迭代构造了一个新的下界函数,最大化这个下界函数来逼近实际的似然函数,求解得到一个局部最优的极值。

       假设在EM算法的求解过程中,经过第i次迭代后得到的参数向量为θ(i),这里我们以这组参数值作为观测点,以此估计隐含变量的概率分布;将这个分布带入似然函数的公式得到近似的L(θ(i)),考虑真实的似然函数与近似似然函数之间的差值:

                

              

        由(6)和(7)可以构造似然函数的一个下界函数B(θ, θ(i)),有如下结论:

                      

    现在仔细回忆一下,模型中的参数之所以难以直接求解的根本原因是:在这一类问题中,实际上存在两类参数,一类是模型自带的参数向量θ,第二类是受这个参数影响的隐藏变量Z。在EM算法的第i次迭代的过程中,利用θ(i)构造了隐含变量Z的分布有效得消除了Z对结果的影响,同时根据Jessen不等式的性质,我们也能够保证构造的下界函数与似然函数之间必然有交点,且始终处于了似然函数图像的下方。

    总结EM算法的E步骤,包含了如下几个操作:

      1. 将当前轮次得到的参数θ(i)作为固定的观测点;
      2. 利用参数θ(i)计算出隐含变量Z的分布;
      3. 将隐含变量Z的分布带入构造似然函数在当前观测点下的下界函数;

      之后再M步骤中,通过极大化下界函数得到一组新的参数向量θ(i+1),如此循环既可以求出似然函数的一个局部最优。用一幅图像更直观得展现这第i次迭代的过程:

     

     

      由公式(8)可知,下界函数由两个部分组成,在参数θ(i)确定的条件下,L(θ(i))就是一个常量,极大化下界函数等价于极大化公式(7)中的G(θ,θ(i)),同时将G(θ,θ(i))在log内部的对求极大值没有影响的常量部分P(Y,Z|θ(i)),即证最大化下界函数等价于证明公式(4)中的Q(θ,θ(i))。

      补充几点关于EM算法的细节,从图中也可以清晰得看出:

      a) EM算法是一种初始值敏感的算法,选取不同初始参数会有不同的最终结果;

      b) EM算法得到的不会是全局最优,每次迭代逼近的都是当前的局部最优。

      d)算法的收敛性

          之前已经证明了可以通过定点参数值估计隐含变量的分布,并以此来构造下界函数,通过极大化下界函数来逼近似然函数的极大值。要证明EM算法的合理性,还有一个关键点就是,是不是每一次迭代都必定能比之前更优,即证明算法的收敛性。

         

          已知条件概率公式:

         

          将公式(11) 带入(10)中并且在两边同时乘以P(Z|Y, θ(i)),可以得到下式:

        

          解释一下上面的公式,第一个不等号是调用了Jessen不等式,在EM算法M步骤中θ(i+1)是使Q(θ,θ(i))取极大值的参数,所以φ必定是大于等于零的值。

    参考资料

    [1].     《统计学习方法》李航

    [2].     https://www.coursera.org/course/ml

    [3].     http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html

    [4].     http://www.cnblogs.com/mindpuzzle/archive/2013/04/05/2998746.html

    展开全文
  • 一.概念 最大期望算法,也就是著名的em算法,他起源于一条dog……

    一.概念

    最大期望算法,也就是著名的em算法,他起源于一条dog



    没错,就是这个


    好吧不扯蛋了,em算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(latent variable)的概率参数模型的最大似然估计或极大后验概率估计。在机器学习中,最大期望(EM)算法用于在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。

    最大似然估计:

    这个概念解释起来非常简单,就是你调皮捣蛋天天搞事,别人家孩子学习优秀各种听话。所以一旦说出个什么坏事家长们总是认为是你干的,因为你之前干坏事的概率比较大。这是一个比较通俗的栗子,更装逼的解释请参考百度百科。


    二.算法

    最大期望算法经过两个步骤交替进行计算:
    第一步是计算期望(E),利用概率模型参数的现有估计值,计算隐藏变量的期望;
    第二步是最大化(M),利用E 步上求得的隐藏变量的期望,对参数模型进行最大似然估计。
    M 步上找到的参数估计值被用于下一个 E 步计算中,这个过程不断交替进行。
    总体来说,EM的算法流程如下:
    1.初始化分布参数
    2.重复直到收敛:
    E步骤:估计未知参数的期望值,给出当前的参数估计。
    M步骤:重新估计分布参数,以使得数据的似然性最大,给出未知变量的期望估计。

    通过交替使用这两个步骤,EM算法逐步改进模型的参数,使参数和训练样本的似然概率逐渐增大,最后终止于一个极大点。直观地理解EM算法,它也可被看作为一个逐次逼近算法:事先并不知道模型的参数,可以随机的选择一套参数或者事先粗略地给定某个初始参数λ0 ,确定出对应于这组参数的最可能的状态,计算每个训练样本的可能结果的概率,在当前的状态下再由样本对参数修正,重新估计参数λ,并在新的参数下重新确定模型的状态,这样,通过多次的迭代,循环直至某个收敛条件满足为止,就可以使得模型的参数逐渐逼近真实参数。
    EM算法的主要目的是提供一个简单的迭代算法计算后验密度函数,它的最大优点是简单和稳定,但容易陷入局部最优。


    三.实现

    模拟2个正态分布的均值预计:

    import math
    import copy
    import numpy as np
    import matplotlib.pyplot as plt
    
    isdebug = True
    
    # 指定k个高斯分布參数。这里指定k=2。注意2个高斯分布具有同样均方差Sigma,分别为M1,M2。
    
    def getdataSet(Sigma,M1,M2,k,N):
        dataSet = np.zeros((1,N))
        for i in range(N):
            if np.random.random(1) > 0.333:
                dataSet[0,i] = np.random.normal()*Sigma + M1
            else:
                dataSet[0,i] = np.random.normal()*Sigma + M2
        if isdebug:
            print ("dataSet:",dataSet)
        return dataSet
    
    
    # E算法:计算期望E[zij]
    def E(Sigma,dataSet,Miu,k,N):
        Exp = np.zeros((N,k))
        Num = np.zeros(k)
        for i in range(N):
            Sum = 0
            for j in range(k):
                Num[j] = math.exp((-1/(2*(float(Sigma**2))))*(float(dataSet[0,i]-Miu[j]))**2)
                Sum += Num[j]
            for j in range(k):            
                Exp[i,j] = Num[j] / Sum
        if isdebug:
            print ("Exp:",Exp)
    
        return Exp
    
    # M算法:最大化E[zij]的參数Miu
    def M(Exp,dataSet,k,N):
        Miu = np.random.random(2)
        for j in range(k):
            Num = 0
            Sum = 0
            for i in range(N):
                Num += Exp[i,j]*dataSet[0,i]
                Sum += Exp[i,j]
            Miu[j] = Num / Sum
        return Miu
    
    
    
    #初始参数
    Sigma = 6
    M1 = -20
    M2 = 20
    k=2
    N=0xffff
    Iter=0xff
    EPS =1e-6
    
    #随机初始数据
    dataSet=getdataSet(Sigma,M1,M2,k,N)
    
    #初始先假设一个E[zij]
    Miu = np.random.random(2)
    # 算法迭代
    for i in range(Iter):
        oldMiu = copy.deepcopy(Miu)
        #E
        Exp = E(Sigma,dataSet,Miu,k,N)
        #M
        Miu = M(Exp,dataSet,k,N)
        #如果达到精度Epsilon停止迭代
        if sum(abs(Miu-oldMiu)) < EPS:
           if isdebug:
               print ("Iter:",i)
           break
    plt.figure('emmmmm',figsize=(12, 6)) 
    plt.hist(dataSet[0,:],100)
    plt.xticks(fontsize=10, color="darkorange")  
    plt.yticks(fontsize=10, color="darkorange") 
    plt.show()
    





    四.总结

    EM算法思路非常简单,就是我们想估计A和B两个参数,在开始状态下二者都是未知的,但如果知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止。
    EM算法和K均值算法有些类似,都是数据存在一个或多个聚集中心点,在这个点附近,样本数量明显较多。K均值算法目的是寻找聚点,EM算法的目的是估计样本的概率分布等统计参数或数据。但如果数据分散,没有明显的聚点,或者数据呈现方式比较奇葩,那么K均值和EM算法就很难派上用场了。


    五.相关学习资源

    http://m.blog.csdn.net/u010866505/article/details/77877345

    https://www.cnblogs.com/slgkaifa/p/6731779.html

    http://blog.csdn.net/zouxy09/article/details/8537620


    展开全文
  • 最大期望算法(Expectation-maximization algorithm,又译期望最大化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。 在统计计算中,最大期望(EM)算法是在概率...

    最大期望算法Expectation-maximization algorithm,又译期望最大化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。

           在统计计算中,最大期望(EM)算法是在概率probabilistic)模型中寻找参数最大似然估计或者最大后验估计算法,其中概率模型依赖于无法观测的隐藏变量Latent Variable)。最大期望经常用在机器学习计算机视觉数据聚类Data Clustering)领域。最大期望算法经过两个步骤交替进行计算,第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是最大化(M),最大化在 E 步上求得的最大似然值来计算参数的值。M 步上找到的参数估计值被用于下一个 E 步计算中,这个过程不断交替进行。

     

    历史

    最大期望值算法由 Arthur Dempster,Nan LairdDonald Rubin在他们1977年发表的经典论文中提出。他们指出此方法之前其实已经被很多作者"在他们特定的研究领域中多次提出过"。

    [编辑]EM简单教程

    EM是一个在已知部分相关变量的情况下,估计未知变量的迭代技术。EM的算法流程如下:

    1. 初始化分布参数
    2. 重复直到收敛:
      1. E步骤:估计未知参数的期望值,给出当前的参数估计。
      2. M步骤:重新估计分布参数,以使得数据的似然性最大,给出未知变量的期望估计。

    应用于缺失值。

    最大期望过程说明

    我们用 \textbf{y} 表示能够观察到的不完整的变量值,用 \textbf{x} 表示无法观察到的变量值,这样 \textbf{x}  \textbf{y} 一起组成了完整的数据。\textbf{x} 可能是实际测量丢失的数据,也可能是能够简化问题的隐藏变量,如果它的值能够知道的话。例如,在混合模型Mixture Model)中,如果“产生”样本的混合元素成分已知的话最大似然公式将变得更加便利(参见下面的例子)。

    估计无法观测的数据

     p\, 代表矢量 \theta: p( \mathbf y, \mathbf x | \theta) 定义的参数的全部数据的概率分布(连续情况下)或者概率聚类函数(离散情况下),那么从这个函数就可以得到全部数据的最大似然值,另外,在给定的观察到的数据条件下未知数据的条件分布可以表示为:

    p(\mathbf x |\mathbf y, \theta) = \frac{p(\mathbf y, \mathbf x | \theta)}{p(\mathbf y | \theta)} = \frac{p(\mathbf y|\mathbf x, \theta) p(\mathbf x |\theta) }{\int p(\mathbf y|\mathbf x, \theta) p(\mathbf x |\theta) d\mathbf x}

    参考文献

    §  Arthur Dempster, Nan Laird, and Donald Rubin. "Maximum likelihood from incomplete data via the EM algorithm". Journal of the Royal Statistical Society, Series B, 39(1):1–38, 1977 [1].

    §  Robert Hogg, Joseph McKean and Allen Craig. Introduction to Mathematical Statistics. pp. 359-364. Upper Saddle River, NJ: Pearson Prentice Hall, 2005.

    §  Radford Neal, Geoffrey Hinton. "A view of the EM algorithm that justifies incremental, sparse, and other variants". In Michael I. Jordan (editor),Learning in Graphical Models pp 355-368. Cambridge, MA: MIT Press, 1999.

    §  The on-line textbook: Information Theory, Inference, and Learning Algorithmsby David J.C. MacKay includes simple examples of the E-M algorithm such as clustering using the soft K-means algorithm, and emphasizes the variational view of the E-M algorithm.

    §  A Gentle Tutorial of the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Modelsby J. Bilmesincludes a simplified derivation of the EM equations for Gaussian Mixtures and Gaussian Mixture Hidden Markov Models.

    Information Geometry of the EM and em Algorithms for Neural Networksby Shun-Ichi Amari give a view of EM algorithm from geometry view point 

     

     

    另外一篇博文,有关于EM算法详细推导:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html

     

    转载于:https://www.cnblogs.com/xianghang123/archive/2012/03/21/2409968.html

    展开全文
  • 最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(latent variable)的概率参数模型的最大似然估计或极大后验概率估计。 极大似然估计只是一种概率论在...
  • 数据挖掘十大算法----EM算法(最大期望算法) http://blog.csdn.net/u011067360/article/details/23702125?utm_source=tuicool&utm_medium=referral ...
  • EM最大期望算法

    千次阅读 2015-01-20 18:43:37
    参考资料:http://blog.csdn.net/zouxy09/article/details/8537620 ... 我的数据挖掘算法代码实现:https://github.com/linyiqun/DataMiningAlgorithm 介绍 em算法是一种迭代
  • 简析EM算法(最大期望算法

    千次阅读 2016-08-14 17:27:28
    问题 假设男、女身高都服从正态分布,我们通过抽样调查,利用最大似然估计,很容易估计出男、女群体的身高平均值。    如果出现了意外,我们把抽样信息中男女的标记给弄丢了,男女身高数据混在了一起,那么还有...
  • EM最大期望算法与jensen不等式

    千次阅读 2018-08-06 21:23:14
    em算法是一种迭代算法,用于含有隐变量的参数模型的最大似然估计或极大后验概率估计。EM算法,作为一个框架思想,它可以应用在很多领域,比如说数据聚类领域----模糊聚类的处理,待会儿也会给出一个这样的实现例子。...
  • maximum likelihood estimation (MLE) and the Expectation Maximization (EM) algorithm when we discuss clustering using mixture models
  • 【机器学习】EM最大期望算法

    千次阅读 2014-11-09 13:56:25
    EM, ExpectationMaximization Algorithm, 期望最大算法。一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计,其概率模型依赖于无法观测的隐变量。  经常用在ML与...
  • 1. 引言:Maximization likelihood-Convex function  2. Expectation-Maximization Algorithm   3. Gaussian Mixture Model  
  • MLE极大似然估计和EM最大期望算法

    千次阅读 2017-01-20 11:21:26
    机器学习十大算法之一:EM算法。能评得上十大之一,让人听起来觉得挺NB的。什么是NB啊,我们一般说某个人很NB,是因为他能解决一些别人解决不了的问题。神为什么是神,因为神能做很多人做不了的事。那么EM算法能解决...
  • 有时候需要琢磨算法为什么奏效?背后到底有什么原因?什么时候算法会失效?这些问题都搞明白了,才算真正理解了算法。这里我想探讨一下K均值和EM算法背后深层的东西。 如果把来自不同样本类型的两组数据样本混在...
  • EM-期望最大算法

    千次阅读 2015-11-04 21:01:55
    最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。 中文名 em算法 外文名 ...
  • (最大期望)EM算法案例详解

    千次阅读 2019-09-08 08:57:18
    EM算法全称为Exception Maximization Algorithm,即最大期望算法,以下简称EM算法。它是一种迭代的算法,主要用于含有隐变量的概率参数模型的极大似然和极大后验概率估计。EM算法也经常用于机器学习和计算机视觉的...
  • 最大期望算法(EM)详解

    万次阅读 多人点赞 2018-07-30 09:15:53
    我们知道最大似然估计的根本目的是根据抽样的到的样本(即数据),反推出最有...这个时候就要依靠最大期望(EM)算法了。 简单的说,EM算法是在依赖于无法观测的隐藏变量的概率模型中,寻找参数最大似然估计或者...
  • 机器学习之最大期望(EM)算法

    千次阅读 多人点赞 2018-05-10 22:41:09
    我们先看下最大期望算法能够解决什么样的问题。 假如班级里有50个男生和50个女生,且男生站左,女生站右。我们假定男生和女生的身高分布分别服从正态分布。这时我们用极大似然法,分别通过这50个男生和50个女生的...
  • 最大期望算法经过两个步骤交替进行计算,第一步是计算期望(E),也就是将隐藏变量象能够观测到的一样包含在内,从而计算最大似然的期望值;另外一步是最大化(M),也就是最大化在 E 步上找到的最大似然的期
  • 最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法。在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量...
  • 期望最大算法

    千次阅读 2015-12-12 19:54:36
    在参数估计中常常通过最大似然函数进行估计,由于隐变量的存在,不能直接求解这个最大似然函数,期望最大算法就是将这个最大似然函数的求解问题转化为求解其下界的最大值的问题,通过一个求隐变量的分布的“期望...
  • 在统计计算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中寻找参数最大似然估计的...最大期望算法经过两个步骤交替进行计算,第一步是计算期望(E),也就是将隐藏变量象能够观测
  • 期望最大算法(EM算法)   是一种以迭代的方式来解决一类特殊最大似然 (Maximum Likelihood) 问题的方法,这类问题通常是无法直接求得最优解。   Expectation-Maximization 算法是统计学中用来给带隐含变量的模型...
  •  最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。可以有一些比较形象的比喻说法...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 111,963
精华内容 44,785
关键字:

最大期望算法