精华内容
下载资源
问答
  • 极大似然估计详解

    万次阅读 多人点赞 2017-05-28 00:55:10
    极大似然估计  以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下: 贝叶斯决策  首先来看贝叶斯分类,我们都知道经典的贝叶斯公式: ...

    极大似然估计

            以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:


    贝叶斯决策

            首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:


            其中:p(w):为先验概率,表示每种类别分布的概率;:类条件概率,表示在某种类别前提下,某事发生的概率;而为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概率,我们就可以对样本进行分类。后验概率越大,说明某事物属于这个类别的可能性越大,我们越有理由把它归到这个类别下。

            我们来看一个直观的例子:已知:在夏季,某公园男性穿凉鞋的概率为1/2,女性穿凉鞋的概率为2/3,并且该公园中男女比例通常为2:1,问题:若你在公园中随机遇到一个穿凉鞋的人,请问他的性别为男性或女性的概率分别为多少?

            从问题看,就是上面讲的,某事发生了,它属于某一类别的概率是多少?即后验概率。

            设:

            由已知可得:

            男性和女性穿凉鞋相互独立,所以

    (若只考虑分类问题,只需要比较后验概率的大小,的取值并不重要)。

            由贝叶斯公式算出:


    问题引出

            但是在实际问题中并不都是这样幸运的,我们能获得的数据可能只有有限数目的样本数据,而先验概率和类条件概率(各类的总体分布)都是未知的。根据仅有的样本数据进行分类时,一种可行的办法是我们需要先对先验概率和类条件概率进行估计,然后再套用贝叶斯分类器。

            先验概率的估计较简单,1、每个样本所属的自然状态都是已知的(有监督学习);2、依靠经验;3、用训练样本中各类出现的频率估计。

            类条件概率的估计(非常难),原因包括:概率密度函数包含了一个随机变量的全部信息;样本数据可能不多;特征向量x的维度可能很大等等。总之要直接估计类条件概率的密度函数很难。解决的办法就是,把估计完全未知的概率密度转化为估计参数。这里就将概率密度估计问题转化为参数估计问题,极大似然估计就是一种参数估计方法。当然了,概率密度函数的选取很重要,模型正确,在样本区域无穷时,我们会得到较准确的估计值,如果模型都错了,那估计半天的参数,肯定也没啥意义了。


    重要前提

            上面说到,参数估计问题只是实际问题求解过程中的一种简化方法(由于直接估计类条件概率密度函数很困难)。所以能够使用极大似然估计方法的样本必须需要满足一些前提假设。

            重要前提:训练样本的分布能代表样本的真实分布。每个样本集中的样本都是所谓独立同分布的随机变量 (iid条件),且有充分的训练样本


    极大似然估计

            极大似然估计的原理,用一张图片来说明,如下图所示:


            总结起来,最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

            原理:极大似然估计是建立在极大似然原理的基础上的一个统计方法,是概率论在统计学中的应用。极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。通过若干次试验,观察其结果,利用试验结果得到某个参数值能够使样本出现的概率为最大,则称为极大似然估计。

            由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来估计参数向量θ。记已知的样本集为:


            似然函数(linkehood function):联合概率密度函数称为相对于的θ的似然函数。


            如果是参数空间中能使似然函数最大的θ值,则应该是“最可能”的参数值,那么就是θ的极大似然估计量。它是样本集的函数,记作:



    求解极大似然函数

            ML估计:求使得出现该组样本的概率最大的θ值。


             实际中为了便于分析,定义了对数似然函数:


            1. 未知参数只有一个(θ为标量)

            在似然函数满足连续、可微的正则条件下,极大似然估计量是下面微分方程的解:


            2.未知参数有多个(θ为向量)

            则θ可表示为具有S个分量的未知向量:


             记梯度算子:


             若似然函数满足连续可导的条件,则最大似然估计量就是如下方程的解。


             方程的解只是一个估计值,只有在样本数趋于无限多的时候,它才会接近于真实值。


    极大似然估计的例子

            例1:设样本服从正态分布,则似然函数为:


            它的对数:


            求导,得方程组:


            联合解得:


            似然方程有唯一解:,而且它一定是最大值点,这是因为当时,非负函数。于是U的极大似然估计为


            例2:设样本服从均匀分布[a, b]。则X的概率密度函数:


            对样本


            很显然,L(a,b)作为a和b的二元函数是不连续的,这时不能用导数来求解。而必须从极大似然估计的定义出发,求L(a,b)的最大值,为使L(a,b)达到最大,b-a应该尽可能地小,但b又不能小于,否则,L(a,b)=0。类似地a不能大过,因此,a和b的极大似然估计:



    总结

            求最大似然估计量的一般步骤:

            (1)写出似然函数;

            (2)对似然函数取对数,并整理;

            (3)求导数;

            (4)解似然方程。

            最大似然估计的特点:

            1.比其他估计方法更加简单;

            2.收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;

            3.如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。


    正态分布ML估计的Matlab实例:点击打开链接

    展开全文
  • 极大似然

    2019-07-15 17:19:57
    极大似然原理是指: 若一次试验有 n 个可能结果 A1,A2,…,An ,现在我们做一次试验,试验的结果为 Ai ,那么我们就可以认为事件 Ai 在这个 n 个可能结果中出现的概率最大。 极大似然估计是指: 在一次抽样中,样本...

    极大似然原理是指:
    若一次试验有 n 个可能结果 A1,A2,…,An ,现在我们做一次试验,试验的结果为 Ai ,那么我们就可以认为事件 Ai 在这个 n 个可能结果中出现的概率最大。

    极大似然估计是指:
    在一次抽样中,样本出现的概率是关于参数 θ 的函数,若在一些试验中,得到观测值 x1,x2,…,xn ,则我们可以选取 θ̂ (x1,x2,…,xn) 作为 θ 的估计值,使得当 θ=θ̂ (x1,x2,…,xn) 时,样本出现的概率最大。而极大似然估计就是要求解出参数 θ 的估计值。可采用极大似然估计法。

    展开全文
  • 极大似然估计极大似然估计(Maximum Likelihood Estimation,MLE),是用来估计一个概率模型参数的方法。1821年,由德国数学家高斯提出,1912年,英国统计学家罗纳德·费希尔,在一篇论文中,再次提出了这个思想,并...
    • 极大似然估计

    极大似然估计(Maximum Likelihood Estimation,MLE),是用来估计一个概率模型参数的方法。1821年,由德国数学家高斯提出,1912年,英国统计学家罗纳德·费希尔,在一篇论文中,再次提出了这个思想,并探讨了这个方法的一些性质,极大似然估计这一名字也是费希尔给的。

    极大似然估计法的依据是:概率最大的事件最有可能发生(一次试验就出现的事件应该有较大的概率)

    • 极大似然原理

    若一试验有n个可能的结果

    ,现做一试验,若事件
    发生了,则认为事件
    在这n个结果中出现的概率最大

    简单说,就是“一次试验就出现的事件,应该有较大的概率”

    极大似然估计法,针对离散型和连续性变量,有不同的数学表达方式

    通常,使用极大似然估计法求估计值的步骤是:

    b73d4e11044370e2d96e438a5d620bfa.png
    • 小栗子

    某位同学和一位猎人外出打猎,一只野兔从前方跑过,只听一声枪响,野兔应声倒下,推测一下,是谁打中了野兔?

    一枪就打中了野兔,猎人打中的概率比较大,这其中,就用到了极大似然估计的思想


    找了很多资料,大致思想知道了,但是很多例子,各种求解什么的,数学知识已经跟不上了。

    最大似然估计,是利用已知样本的结果,在使用某个模型的基础上,反推最优可能导致这样结果的模型参数值(模型已定,参数未知)

    展开全文
  • 转自:https://blog.csdn.net/zengxiantao1994/article/details/72787849极大似然估计以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:...

    转自:https://blog.csdn.net/zengxiantao1994/article/details/72787849

    极大似然估计

    以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:

    贝叶斯决策

    首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:

    其中:p(w):为先验概率,表示每种类别分布的概率;

    :类条件概率,表示在某种类别前提下,某事发生的概率;而

    为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概率,我们就可以对样本进行分类。后验概率越大,说明某事物属于这个类别的可能性越大,我们越有理由把它归到这个类别下。

    我们来看一个直观的例子:已知:在夏季,某公园男性穿凉鞋的概率为1/2,女性穿凉鞋的概率为2/3,并且该公园中男女比例通常为2:1,问题:若你在公园中随机遇到一个穿凉鞋的人,请问他的性别为男性或女性的概率分别为多少?

    从问题看,就是上面讲的,某事发生了,它属于某一类别的概率是多少?即后验概率。

    设:

    由已知可得:

    男性和女性穿凉鞋相互独立,所以

    (若只考虑分类问题,只需要比较后验概率的大小,的取值并不重要)。

    由贝叶斯公式算出:

    问题引出

    但是在实际问题中并不都是这样幸运的,我们能获得的数据可能只有有限数目的样本数据,而先验概率

    和类条件概率(各类的总体分布)

    都是未知的。根据仅有的样本数据进行分类时,一种可行的办法是我们需要先对先验概率和类条件概率进行估计,然后再套用贝叶斯分类器。

    先验概率的估计较简单,1、每个样本所属的自然状态都是已知的(有监督学习);2、依靠经验;3、用训练样本中各类出现的频率估计。

    类条件概率的估计(非常难),原因包括:概率密度函数包含了一个随机变量的全部信息;样本数据可能不多;特征向量x的维度可能很大等等。总之要直接估计类条件概率的密度函数很难。解决的办法就是,把估计完全未知的概率密度

    转化为估计参数。这里就将概率密度估计问题转化为参数估计问题,极大似然估计就是一种参数估计方法。当然了,概率密度函数的选取很重要,模型正确,在样本区域无穷时,我们会得到较准确的估计值,如果模型都错了,那估计半天的参数,肯定也没啥意义了。

    重要前提

    上面说到,参数估计问题只是实际问题求解过程中的一种简化方法(由于直接估计类条件概率密度函数很困难)。所以能够使用极大似然估计方法的样本必须需要满足一些前提假设。

    重要前提:训练样本的分布能代表样本的真实分布。每个样本集中的样本都是所谓独立同分布的随机变量 (iid条件),且有充分的训练样本。

    极大似然估计

    极大似然估计的原理,用一张图片来说明,如下图所示:

    总结起来,最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

    原理:极大似然估计是建立在极大似然原理的基础上的一个统计方法,是概率论在统计学中的应用。极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。通过若干次试验,观察其结果,利用试验结果得到某个参数值能够使样本出现的概率为最大,则称为极大似然估计。

    由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来估计参数向量θ。记已知的样本集为:

    似然函数(linkehood function):联合概率密度函数

    称为相对于

    的θ的似然函数。

    如果

    是参数空间中能使似然函数

    最大的θ值,则

    应该是“最可能”的参数值,那么

    就是θ的极大似然估计量。它是样本集的函数,记作:

    求解极大似然函数

    ML估计:求使得出现该组样本的概率最大的θ值。

    实际中为了便于分析,定义了对数似然函数:

    1. 未知参数只有一个(θ为标量)

    在似然函数满足连续、可微的正则条件下,极大似然估计量是下面微分方程的解:

    2.未知参数有多个(θ为向量)

    则θ可表示为具有S个分量的未知向量:

    记梯度算子:

    若似然函数满足连续可导的条件,则最大似然估计量就是如下方程的解。

    方程的解只是一个估计值,只有在样本数趋于无限多的时候,它才会接近于真实值。

    极大似然估计的例子

    例1:设样本服从正态分布

    ,则似然函数为:

    它的对数:

    求导,得方程组:

    联合解得:

    似然方程有唯一解

    :,而且它一定是最大值点,这是因为当

    时,非负函数

    。于是U和

    的极大似然估计为

    例2:设样本服从均匀分布[a, b]。则X的概率密度函数:

    对样本

    很显然,L(a,b)作为a和b的二元函数是不连续的,这时不能用导数来求解。而必须从极大似然估计的定义出发,求L(a,b)的最大值,为使L(a,b)达到最大,b-a应该尽可能地小,但b又不能小于

    ,否则,L(a,b)=0。类似地a不能大过

    ,因此,a和b的极大似然估计:

    总结

    求最大似然估计量

    的一般步骤:

    (1)写出似然函数;

    (2)对似然函数取对数,并整理;

    (3)求导数;

    (4)解似然方程。

    最大似然估计的特点:

    1.比其他估计方法更加简单;

    2.收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;

    3.如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。

    展开全文
  • 之前总是没能理解啥叫极大似然估计,一直似是而非,似懂非懂。结果越是搞不懂,偏偏越是哪都见着它,着实让人郁闷。索性花些工夫,搞懂它,写个博客做记录,分享出来,以教为学,尽可能通俗易懂。本文同时发布于以下...
  • 极大似然法( maximum likelihood estimation,MLE )是概率统计中估算模型参数的一种很经典和重要的方法,贯穿了机器学习中生成模型(Generative model)这一大分支的始终。有一定基础的同学肯定会知道与之对立的还有另...
  • 原标题:极大似然估计法的理解指南今天讲一个在机器学习中重要的方法——极大似然估计。这是一个,能够让你拥有拟合最大盈利函数模型的估计方法。01什么是极大似然估计法极大似然估计是 1821 年由高斯提出,1912 年...
  • 极大似然估计(Maximum Likelihood Estimation,MLE)和贝叶斯估计(Bayesian Estimation)是统计推断中两种最常用的参数估计方法,二者在机器学习中的应用也十分广泛。本文将对这两种估计方法做一个详解。考虑这样...
  • 极大似然估计是一种针对一种现象(或事件),提取的一种解决方法 这种现象是:其总体的分布类型已知,但是里面的参数未知。 二、解决问题的思路,几何意义 极大似然原理:概率大的事件在一次观测中更容易发生。反...
  • 今天讲一个在机器学习中重要的方法——极大似然估计。这是一个,能够让你拥有拟合最大盈利函数模型的估计方法。01什么是极大似然估计法极大似然估计是 1821 年由高斯提出,1912 年由费希尔完善的一种点估计方法。...
  • 01极大似然估计是什么极大似然估计最初有C.F.Gauss提出,但直至1922年,R.A.Fisher在他的论文中再次提到了极大似然估计这个概念,并给出了相应的性质时,使得极大似然估计开始得到广泛应用。由于概率密度函数十分...
  • 最大似然 极大似然Introduction : 简介 : In machine learning, the purpose is to find certain types of patterns. To do so, you need to train a model over a dataset using algorithms so that the model ...
  • 极大似然估计详解,写的太好了!

    万次阅读 多人点赞 2018-08-18 15:42:08
    极大似然估计  以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:   贝叶斯决策  首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:...
  • 引言随机前沿模型的复合扰动项由两部分随机扰动项相减构成,常见的模型设定都会对这两部分随机扰动项的分布作出假设,自然,极大似然估计成为随机前沿分析中最常见的估计方法。了解极大似然估计的代码实现,对于掌握...
  • 前言不知看过多少次极大似然估计与最大后验概率估计的区别,但还是傻傻分不清楚。或是当时道行太浅,或是当时积累不够。这次重游机器学习之路,看到李航老师《统计学习方法》中第一章关于经验风险最小化与结构风险...
  • 一、什么是极大似然估计极大似然估计是一种参数估计的方法。它要解决这样一个问题:给定一组数据和一个参数待定的模型,如何确定模型的参数,使得这个确定参数后的模型在所有模型中产生已知数据的概率最大。通俗的来...
  • 极大似然估计方法

    2019-01-04 18:26:05
    极大似然估计方法估计方法,极大似然估计方法估计方法
  • 极大似然法辨识

    2017-12-31 21:29:49
    极大似然法辨识,内容由浅入深,紧密结合实际,利用大量典型实例,详细讲解极大似然法辨识的用法,总结优化极大似然法辨识的原理
  • 极大似然估计(Maximum Likelihood Estimattion Theory)是什么?极大似然估计的本质思想是什么?为什么极大似然可以作为损失函数使用?负对数似然损失函数(Negative Log Likelihood)又是什么?交叉熵函数与最大...
  • 深入浅出极大似然估计

    万次阅读 2020-10-15 16:38:31
    在理解极大似然估计之前我们首先要了解概率和似然,概率是事件未发生前预测事件发生的概率,当事件发生时这个概率就已经确定,不在改变,而似然是事实已经发生去推测发生的条件,当事件与条件一一对应时似然值大小...
  • 极大似然估计ML是stata给sem默认的估计方法。极大似然估计的逻辑是,在θ的一系列可能取值中,选取一个使似然函数值L(θ)最大的。它的似然函数为:上式中,S是全部显变量组成的样本协方差矩阵。tr[SΣ-1(θ)]是矩阵S...
  • 似然与极大似然估计

    2019-08-24 18:30:27
    2极大似然估计 2.1什么是极大似然估计 2.2极大似然原理及数学表示 2.3极大似然估计法(Maximum Likelihood Estimation,MLE) 2.3.1总体X为离散型 2.3.2总体X为连续型 2.4极大似然估计法求估计值 3极大似然估计...
  • 极大似然方法把样本独立同分布当成默认假设极大似然方法不一定要求样本独立同分布但一般统计教材都只讨论独立同分布的情况,目前考试也只涉及独立同分布的题目,可当做默认假设。2.dlnL/dθ=0方法&定义法求MLE,...
  • 0 引言在机器学习的理论学习理论中往往会遇到“极大似然估计”的概念,极大似然估计的求解过程非常简单致使我们往往会忽律其背后的原理。当我彻底弄懂了极大似然估计的背后的思想后对机器学习算法的理解有了本质上的...
  • 极大似然估计方法(Maximum Likelihood Estimate,MLE)也称为最大概似估计或最大似然估计,其作用是通过采样的样本分布去估计整个数据中的某些参数。简单点说,现在已知一个数据的概率分布,这个概率分布中有一些...
  • 我们都知道机器学习的大致流程是通过建立一个合理的模型学习现有数据集,然后... 针对上述问题, 极大似然估计为我们提供了一种很好的解决思路,本文将给大家解释极大似然估计的原理和分析步骤。01背景概念介绍02...
  • 1, ,l 分别估计参数?i ,i=1,...,k,并称其为?i 的矩估计。 2、最大似然估计法 设总体 X 有概率密度...基于极大似然法的基本原理和优化模型求解的特点,将遗传算法应用于可靠性寿命分布模型......, ? k 使得似然函数L(?...
  • 极大似然估计 以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:贝叶斯决策 首先来看贝叶斯分类,我们都知道经典的贝叶斯公式: 其中:p(w)...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,187
精华内容 1,674
关键字:

极大似然