精华内容
下载资源
问答
  • 参数估计

    千次阅读 2018-10-10 23:31:28
    一、参数估计内容 1.参数估计的requisites   我默认大家已经掌握了基本的概率论知识,例如了解概率空间、随机变量、概率的含义,会求随机变量的分布函数、数字特征,对基本的大数定理中心极限定理...

    前言

      学了很久的数理统计,总觉得知识在脑海中没有一个清晰的轮廓,虽然也可以自己通过纸和笔整理,但是,也想要通过新的方式,用文字的方式输出,这一想法已经在我脑海里盘旋了好久了,终于在今天开始落实。

    一、参数估计内容

    1.参数估计的requisites

      我默认大家已经掌握了基本的概率论知识,例如了解概率空间、随机变量、概率的含义,会求随机变量的分布函数、数字特征,对基本的大数定理和中心极限定理有一些了解,最好还要知道三大抽样分布的性质。

    但是还是简单提一下统计量的概念吧:统计量是从样本中得到的,是样本的函数,统计量不含有任何未知参数。

    2.参数估计的目的

      我们在统计中,总是想要通过样本去推断总体的性质,而引进统计量,就是对样本进行描述的过程。实际中,我们感兴趣的问题总是与总体分布中的未知参数有关系,所以,我们要对参数进行估计和检验。
    这里的参数是指:

    • 分布中的未知参数和未知参数的函数
    • 分布的各种特征函数

    3.参数估计的类型和使用

    在此之间,我们必须要明确一点,估计是一个方法,不是一个具体算出来的值;只是,在给定样本以后,用这种估计的方法,可以算出数值。

    3.1 点估计

      点估计,顾名思义是对某个未知参数的值的估计,就像是数轴上的一个点。因此我们的目的也就是找到一个未知参数的好的估计量。
      知道点估计的含义以后,我们先来看看常用的找估计量的方法:

    • 矩估计
    • 最大似然估计
    • 最小方差无偏估计
    • 贝叶斯估计

    3.1.1 矩估计

      矩估计的基本原理就是:替换原理通过样本的矩替换总体的矩,用样本矩的函数替换总体矩的函数。
      这么做的好处是:在总体分布函数未知的情况下,通过样本的特征数可以对各种参数进行估计。
      矩估计的实质是:用样本的经验分布函数去替换总体的分布,理论基础是格里纹科定理。
      具体的操作就是:

    1. 假设已知总体的概率密度函数,但其中的参数未知,通过这个带有未知参数的密度函数去求总体的各阶矩;
    2. 利用样本的数据,求各阶矩;
    3. 通过总体各阶矩和样本各阶矩相等,构造方程组,解出参数。

    3.1.2 最大似然估计(MLE)

      最大似然估计,也可以叫做极大似然估计,从字面理解非常到位就是,找到一个未知参数的估计,使得在这个估计的条件下,由总体概率密度函数推算的分布下,样本发生的可能性最大。即是,最大的像这样的估计。
    具体操作就是:

    1. 将未知参数的估计设为x,带入总体密度函数。
    2. 建立在样本的独立性的条件下,根据样本求出样本取得当下值的概率。
    3. 通过分析计算出使得概率达到最大的x,就是未知参数的极大似然估计。
      最大似然估计具有不变性。

    3.1.3 最小方差无偏估计

      首先引进均方误差(MSE)的概念,均方误差是用于衡量点估计好坏的一种标准,关于衡量点估计好坏的标准在后文还会详细介绍,这里为了需要,先简单提一下。首先明确一点,均方误差是对点估计进行的计算。具体的计算公式是,参数估计值与真实值之差的平方的期望,通过分解,也等于估计值的方差加估计值的期望与真实值之差的平方。
      一致最小均方误差估计,是需要在一个确定的估计类里,找到均方误差相对最小的那个。但由于是在估计类里找,如果不对估计加任何限制,则一致最小均方误差估计是不存在的,所以没有意义。
      最小方差无偏估计,这里是指一致最小方差无偏估计,就是对于一个参数的无偏估计而言,最小的均方误差就意味着最小的方差。对于参数空间中的任何无偏估计,具有最小方差的那个估计就称作是一致最小方差无偏估计(UMVUE)
    实际上,用于判断是否是UMVUE,可以通过一个定理方便地得到:未知参数的UMVUE必然与任一零的无偏估计不相关。也就是说,现在还有一个其他的随机变量X,均值是零,那么这个未知参数的UMVUE与这个随机变量X的相关系数(Cov)为零。

    3.1.4 贝叶斯估计

      前面介绍的三种办法是频率学派的理论,而贝叶斯估计是贝叶斯学派的观点。
      贝叶斯估计是建立在已经有关于参数的分布的信息的基础上,叫做先验信息,然后进行样本观测,推算后验分布。也可以理解为,用总体和样本对先验分布做出调整。
      具体做法是:

    1. 在参数未知的条件下,确定总体的分布
    2. 根据参数的先验信息确定先验分布 π(θ)
    3. 求出在通过先验分布得到的未知参数后,样本的联合分布 p(X|θ)
    4. 确定样本和未知参数的联合分布,也就是2.与3.得到的分布函数之积 h(X,θ)=p(X|θ)π(θ)。
    5. 对参数θ的贝叶斯推断,π(θ|X)= h(X,θ)/m(X),其中m(X) 是从h(X,θ)中对θ整个参数空间积分得到的,X的边际概率函数。

    3.2 点估计好坏的评价标准

      前面已经提到点估计的目的是找到未知参数的好的估计量,那么到底怎么定义“好”,也是我们需要关心的。在点估计中,有如下标准衡量:

    • 无偏性
    • 有效性
    • 相合性
    • 均方误差
    • 充分性原则
    • 有效估计

      我刚学参数估计的时候,脑子里总是记不住这些性质到底在描述什么QAQ
      好吧,其实现在也记不住,我也必须翻一下笔记了…

    • 无偏性
        无偏性是描述经过重复抽样以后,所有对这个未知参数的估计值的平均等于真实的参数值。具体判断也就是计算这个估计的均值,看它是否等于真实值。关于无偏性还有一些性质,最好能够记住:
      1. 样本的k阶中心距通常不是总体k阶中心矩的无偏估计
      2. 无偏性不具有不变性,也就是无偏估计的函数不一定是无偏估计
          无偏估计还有渐近无偏估计,就是当样本量趋近于无穷时,均值的极限趋近于真实值。也是用于衡量一个估计是一个好的估计的准则。
    • 有效性
        有效性是建立在两个无偏估计的基础上,比较两个无偏估计的方差,方差小的更有效。
    • 相合性
        与渐近无偏性从期望的极限角度理解不同,相合性是从概率的角度,即未知参数的估计,在样本量趋近于无穷大的时候,估计量依概率收敛到未知参数。也即是说,当样本量增大的时候,被估计的参数能够被估计到任意指定的精度。判断相合性,我们采用验证它的充分条件:
      1. 渐进无偏性
      2. 方差收敛到0
          由大数定理知道,矩估计一般都是相合的
    • 均方误差
        MSE,是通过计算参数估计值与真实值之差的平方的期望,其大小能够反映估计的好坏,在同一估计类里越小越好。
    • 充分性原则
        首先,要注意充分性原则和充分性是两个不同的东西!充分性是描述统计量不丢失关于样本的任何信息,则称这个统计量为充分统计量。那么,充分性原则和充分性一点关系都没有吗?也不是的。在比较两个无偏估计的好坏的时候,较好的那个无偏估计总是样本的充分统计量;并且,将不是样本充分统计量的统计量,关于充分统计量求期望,得到的估计,一定是充分统计量,并且新的估计的方差也得到了降低。
        换句话说,对于所有的统计推断问题,考虑未知参数的估计问题,只需要在基于充分统计量的函数中进行即可,这就是充分性原则。
        你可能还在想,怎么将不是样本充分统计量的统计量关于一个充分统计量求期望?利用随机过程讲义的第一章的内容,利用条件概率公式,连续函数求积分,离散函数求∑。
    • 有效估计
        有效估计是一个估计,它的方差达到了Cramer-Rao方程的下界,有效估计一定是UMVUE哈。具体计算来判断是否是有效估计的话:
      1. 根据总体密度函数(含参数)检验满足C-R方程的条件;
      2. 求费希尔信息量,找到C-R下界;
      3. 对无偏估计求方差,检验是否等于C-R下界。

    3.3 区间估计

      之前我们讨论的都是点估计,但是关于统计量的精度我们无法定量的回答,必须通过它们的分布来反映。在实际中,度量点估计精度直观方法就是给出未知参数的一个区间,这就是区间估计。
      区间估计是想要找到两个统计量,构成一个区间,这个区间盖住未知参数真值的可能性不确定,但是人们总是希望在尽可能小的区间下,区间盖住真值的可能性越大越好,由此得到置信区间的定义:
      置信区间,是一个有样本值得到的随机区间,未知参数真值落在这个随机区间中的概率大于等于1-a,或者理解为,未知参数真值不落在这个随机区间中的概率小于置信度,满足这个条件的随机区间称作置信区间。首先,置信水平是随机区间盖住真值的概率,置信水平等于置信度,然后,我自己理解置信度是这样的:当大量重复实验,用置信区间的计算方法,得到很多个N个随机区间的时候,有(N* 置信水平)的那么多个区间,包括了均值。
      那具体怎么做区间估计呢?我们通过构造区间估计的方法,使用最基本的枢轴量法:

    1. 什么是枢轴量?
        枢轴量是样本和未知参数的函数,它具有的性质是其分布不依赖与未知参数,或者说,它的概率密度函数与参数无关。
    2. 枢轴量有什么用?
        在参数未知的时候,没有办法直接凭空从置信水平找到随机区间的上下限,所以采用枢轴量的分布函数,以此为媒介,根据置信水平,先算出枢轴量的置信区间,再反解出上下限。
    3. 枢轴量怎么用?
        其实2.已经解答过了,从未知参数的好的点估计(MLE)出发,用它的性质和密度函数构造。根据置信水平,通常采用等尾置信区间保证区间长度最短,先算出枢轴量的置信区间,再反解出上下限。
    4. 有什么特别的检验的构造套路吗?
        老师教过的有:
      • 单个正态总体参数:分为均值、方差是否已知,对均值和方差分别都有不同的枢轴量
      • 大样本置信区间:原理是中心极限定理,在样本方差已知的时候,很ok;在样本方差未知的时候,中心极限定理的分布可以将方差换成它的相合估计。注意哦,大样本运用中心极限定理,最多只有样本的方差的相合估计代替方差,不可以用均值的无偏估计代替总体均值位置上的μ的!
      • 两独立正态总体下均值之差和方差之比的置信区间:类似于单个正态总体,在估计均值的时候,要看方差是否已知,或者方差成比例;在估计方差之比的时候,直接就有枢轴量,不需要讨论均值是否已知。

      除了这些,均匀分布的总体还有一些特别的构造方法,课后题和期中考试卷子也有涉及,供自己参考~
      注:区间估计构造枢轴量的时候,大量用到前面一章节的统计量及其分布、以及三大抽样分布的基础。

    二、整体学习思路

      参数的点估计—>穿插如何评价点估计的好坏—>参数的区间估计
      建议的学习思路:点估计—>评价点估计的好坏—>参数估计,感觉独立开会更清晰一些~

    三、声明

      全文都是我个人的学习笔记,肯定有出现错误欢迎指正。

    展开全文
  • 概率论 参数估计与假设检验 区分及例子动机区分概念假设检验基本思想小概率原理原理几种常见假设检验假设检验规则两类错误检验规则两类错误明确步骤 动机 国内本科教材重计算技巧,轻内在逻辑,大家学完容易忘记。...

    动机

    国内本科教材重计算技巧,轻内在逻辑,大家学完容易忘记。最近在补概率论相关知识,作如下总结希望共勉,不足之处,多多指教。

    区分概念

    假设检验和参数估计解决的是不同的问题,参数估计是对用样本统计量去估计总体的参数的真值,而假设检验则是根据样本统计量来检验对总体参数的先验假设是否成立。二者都是根据样本信息对总体的数量特征进行推断,但目的不同。
    例如:我们对45钢的断裂韧性作了测定,取得了一批数据,然后要求45钢断裂韧性的平均值,或要求45钢断裂韧性的单侧下限值,或要求45钢断裂韧性的分散度(即离散系数),这就是参数估计的问题。又如,经过长期的积累,知道了某材料的断裂韧性的平均值和标准差,经改进热处理后,又测得一批数据,试问新工艺与老工艺相比是否有显著差异,这就是假设检验的问题。

    假设检验

    基本思想

    小概率原理

    如果对总体的某种假设是真实的,那么不利于或不能支持这一假设的事件A(小概率事件)在一次试验中几乎不可能发生的;要是在一次试验中A竟然发生了,就有理由怀疑该假设的真实性,拒绝这一假设。

    原理

    假设检验使用了一种类似于“反证法”的推理方法,它的特点是:
    (1)先假设总体某项假设成立,计算其会导致什么结果产生。若导致不合理现象产生,则拒绝原先的假设。若并不导致不合理的现象产生,则不能拒绝原先假设,从而接受原先假设。
    (2)它又不同于一般的反证法。所谓不合理现象产生,并非指形式逻辑上的绝对矛盾,而是基于小概率原理:概率很小的事件在一次试验中几乎是不可能发生的,若发生了,就是不合理的。至于怎样才算是“小概率”呢?通常可将概率不超过0.05的事件称为“小概率事件”,也可视具体情形而取0.1或0.01等。在假设检验中常记这个概率为α,称为显著性水平。而把原先设定的假设成为原假设,记作H0。把与H0相反的假设称为备择假设,它是原假设被拒绝时而应接受的假设,记作H1。

    几种常见假设检验

    在这里插入图片描述

    假设检验规则和两类错误

    检验规则

    检验过程是比较样本观察结果与总体假设的差异。差异显著,超过了临界点,拒绝H0;反之,差异不显著,接受H0。
    在这里插入图片描述

    两类错误

    I型错误:弃真,概率为α
    II型错误:取伪,概率为β
    具体的:
    在这里插入图片描述
    基本原则:力求在控制α前提下减少β
    α——显著性水平,取值:0.1, 0.05, 0.001, 等。如果犯I类错误损失更大,为减少损失,α值取小;如果犯II类错误损失更大,α值取大。确定α,就确定了临界点c。

    举个例子
    在这里插入图片描述

    明确步骤

    在这里插入图片描述

    展开全文
  • 参数估计与非参数估计

    万次阅读 2015-05-06 11:38:58
    参数估计(parameter estimation): 根据从总体中抽取的样本估计总体分布中包含的未知参数的方法。人们常常需要根据手中的数据,分析或推断数据反映的本质规律。即根据样本数据如何选择统计量去推断总体的分布或...

    参数估计(parameter estimation)

    根据从总体中抽取的样本估计总体分布中包含的未知参数的方法。人们常常需要根据手中的数据,分析或推断数据反映的本质规律。即根据样本数据如何选择统计量去推断总体的分布或数字特征等。统计推断是数理统计研究的核心问题。所谓统计推断是指根据样本对总体分布或分布的数字特征等作出合理的推断。它是统计推断的一种基本形式,是数理统计学的一个重要分支,分为点估计和区间估计两部分。



    非参数估计:

    已知样本所属的类别,但未知总体概率密度函数的形式,要求我们直接推断概率密度函数本身。统计学中常见的一些典型分布形式不总是能够拟合实际中的分布。此外,在许多实际问题中经常遇到多峰分布的情况,这就迫使我们必须用样本来推断总体分布,常见的总体类条件概率密度估计方法有Parzen窗法和Kn近邻法两种。

    非参数估计也有人将其称之为无参密度估计,它是一种对先验知识要求最少,完全依靠训练数据进行估计,而且可以用于任意形状密度估计的方法。常见的非参数估计方法有以下几种:



    度曲线的光滑程度,k越大越光滑。


    概率密度函数估计:

    非参数估计和参数估计(监督参数估计和非监督参数估计)共同构成了概率密度估计方法。

    在贝叶斯分类(这里有个简介:http://blog.csdn.net/carson2005/article/details/6854005 )器设计之中,需要在类的先验概率和类条件概率密度均已知的情况下,按照一定的决策规则确定判别函数和决策面。但是,在实际应用中,类条件概率密度通常是未知的。那么,当先验概率和类条件概率密度都未知或者其中之一未知的情况下,该如何来进行类别判断呢?其实,只要我们能收集到一定数量的样本,根据统计学的知识,我们是可以从样本集来推断总体概率分布的。一般来说,有以下几种方法可以解决这个问题:

       一、监督参数估计:样本所属的类别及类条件总体概率密度函数的形式为已知,而表征概率密度函数的某些参数是未知的。例如,只知道样本所属总体分布形式为正态分布,而正态分布的参数是未知的。监督参数估计的目的就是由已知类别的样本集对总体分布的某些参数进行统计推断。

      二、非监督参数估计:已知总体概率密度函数形式但未知样本所属的类别,要求推断出概率密度函数的某些参数,这种推断方法称之为非监督情况下的参数估计。 这里提到的监督参数估计和非监督参数估计中的监督和非监督是指样本所属类别是已知还是未知。但无论哪种情况下的参数估计都是统计学中的经典问题,解决的方法很多。但最常用的有两种:一种是最大似然估计方法;另一种是贝叶斯估计方法。虽然两者在结果上通常是近似的,但从概念上来说它们的处理方法是完全不同的。最大似然估计把参数看做是确定(非随机)而未知的,最好的估计值是在获得实际观察样本的概率为最大的条件下得到的。而贝叶斯估计则是把参数当做具有某种分布的随机变量,样本的观察结果使先验分布转换为后验分布,再根据后验分布修正原先对参数的估计。

       三、非参数估计:已知样本所属的类别,但未知总体概率密度函数的形式,要求我们直接推断概率密度函数本身。统计学中常见的一些典型分布形式不总是能够拟合实际中的分布。此外,在许多实际问题中经常遇到多峰分布的情况,这就迫使我们必须用样本来推断总体分布,常见的总体类条件概率密度估计方法有Parzen窗法和Kn近邻法两种。



    展开全文
  • parzen窗的非参数估计

    2018-12-01 16:32:29
    本实验的目的是学习Parzen窗估计方法。在之前的模式识别研究中,我们假设概率密度函数的参数形式已知,即判别函数J(.)的参数是已知的。本节使用非参数化的方法来处理任意形式的概率分布而不必事先考虑概率密度的参数...
  • 参数估计:最大似然估计MLE

    万次阅读 多人点赞 2016-05-21 16:57:50
    http://blog.csdn.net/pipisorry/article/details/51461997最大似然...最大似然估计就是要用似然函数取到最大值时的参数值作为估计值,似然函数可以写做相乘因为它们之间是独立同分布的。由于有连乘运算,通常对似然

    http://blog.csdn.net/pipisorry/article/details/51461997

    最大似然估计MLE

    顾名思义,当然是要找到一个参数,使得L最大,为什么要使得它最大呢,因为X都发生了,即基于一个参数发生的,那么当然就得使得它发生的概率最大。

    最大似然估计就是要用似然函数取到最大值时的参数值作为估计值,似然函数可以写做

    Note: p(x|theta)不总是代表条件概率;也就是说p(x|theta)不代表条件概率时与p(x;theta)等价,而一般地写竖杠表示条件概率,是随机变量;写分号p(x; theta)表示待估参数(是固定的,只是当前未知),应该可以直接认为是p(x),加了;是为了说明这里有个theta的参数,p(x; theta)意思是随机变量X=x的概率。在贝叶斯理论下又叫X=x的先验概率。相乘因为它们之间是独立同分布的。

    MLE通常使用对数似然函数

    使用log-likelihood比原始函数好的原因:

    1 由于有连乘运算,通常对似然函数取对数计算简便,即对数似然函数。it's kind of analytically nice to work with log-likelihood.

    2 multiplying small numbers the numerical errors start to add up and start to propagate.If we are summing together small numbers,the numerical errors are not so serious.

    3 log函数是单调的,所有东西保持不变。

    最大似然估计问题可以写成


    这是一个关于的函数,求解这个优化问题通常对求导,得到导数为0的极值点。该函数取得最大值是对应的的取值就是我们估计的模型参数。

    给定观测到的样本数据,一个新的值发生的概率是

    求出参数值不是最终目的,最终目的是去预测新事件基于这个参数下发生的概率。

    Note: 注意有一个约等于,因为他进行了一个近似的替换,将theta替换成了估计的值,便于计算。that is, the next sample is anticipated to be distributed with the estimated parameters θ ˆ ML .

    扔硬币的伯努利实验示例

    以扔硬币的伯努利实验为例子,N次实验的结果服从二项分布,参数为P,即每次实验事件发生的概率,不妨设为是得到正面的概率。为了估计P,采用最大似然估计,似然函数可以写作

    其中表示实验结果为i的次数。下面求似然函数的极值点,有


    得到参数p的最大似然估计值为


    可以看出二项分布中每次事件发的概率p就等于做N次独立重复随机试验中事件发生的概率。

    如果我们做20次实验,出现正面12次,反面8次,那么根据最大似然估计得到参数值p为12/20 = 0.6。

    [Gregor Heinrich: Parameter estimation for text analysis*]

    MLE的一个最简单清晰的示例

    皮皮blog



    最大似然估计MLE

    能最大化已观测到的观测序列的似然的参数就是估计的参数值。


    图钉的例子

    为不同参数theta的可能值打分并选择的一种标准

    一般情况下的MLE


    最大似然准则

    参数模型和参数空间


    似然函数的定义


    充分统计量


    MLE的注解

    MLE的缺陷:置信区间

    似然函数度量了参数选择对于训练数据的影响。


    似然函数的要求

    [《Probabilistic Graphical Models:Principles and Techniques》(简称PGM)]

    皮皮blog
    from: http://blog.csdn.net/pipisorry/article/details/51461997

    ref: 


    展开全文
  • 机器学习之参数估计

    千次阅读 2018-11-27 17:09:43
    学习就是去捕捉掌握万事发生的规律。 数学地说,给定一个x(事起之因),遵循一个规律 F(*),可得一个y(事终之果)。 学习,无论人还是机器,就是去总结归纳这个F(*)。 当这个规律异常复杂从而无法显式地...
  • 本实验的目的是学习Parzen窗估计和k最近邻估计方法。在之前的模式识别研究中,我们假设概率密度函数的参数形式已知,即判别函数J(.)的参数是已知的。本节使用非参数化的方法来处理任意形式的概率分布而不必事先考虑...
  • SPSS——连续变量的参数估计

    千次阅读 2018-09-05 17:26:11
    根据样本数据对总体的客观规律性做出合理的估计就是统计推断,其中又分为参数估计和假设检验两大类。 正态分布特征: 是一条对称曲线,关于均数对称。均数被称为正态分布的位置参数 单峰,均值出最高 标准差决定...
  • 最大似然参数估计

    万次阅读 2017-01-12 17:07:47
    最普遍的情况是概率密度函数并不是已知的,在很多的问题中,潜在的概率密度函数必须从可用的数据中估计。例如有时可能知道概率密度函数...这里介绍最大似然参数估计。  考虑一个M类的问题,特征向量服从p(x|wi),i=1,
  • 机器学习_非参数估计

    千次阅读 2017-11-21 17:00:23
    【1】非参数估计参数估计不同:未对函数形式作出假设,直接从训练样本中估计出密度。 【2】最简单的非参数估计:直方图 理解:直方图如果达到细化,就是概率密度函数。  2.1   简单理解一下公式:在x点发生的...
  • 最小二乘估计 说的比较高端,其实就是样本值模型值的差的平方 要使预测函数尽可能的逼近所有的点,所以就需要让差值尽可能的小,取平方的目的是抵消正负带来的误差,实际上取绝对值也是一样的。 SST的意义 每一个...
  • 接上一篇文章:最大似估计贝叶斯估计: 参数估计 是最随机变量,根据观测数据对参数的分布进行估计,还要考虑先验分布最大似然估计: 参数估计 是未知的,根据观测数据来估计 的值。贝叶斯学习是把贝叶斯估计的...
  • 有监督学习无监督学习  两者应用在模式识别的领域,目的是对给定的样本进行划分。  有监督学习将样本分为训练集测试集,训练集中的数据带有标签,标志着这些样本来自哪些类别,训练集中的数据没有标签。有...
  • 贝叶斯参数估计的理解及其在电商算法中的应用

    万次阅读 多人点赞 2016-12-03 13:51:54
    极大似然估计贝叶斯估计是参数估计中的一种方法,以贝叶斯思想为基础,而贝叶斯思想在机器学习中经常用到。机器学习中常涉及贝叶斯网络,最终的问题都是转化为参数求解。贝叶斯参数估计是这些问题的基础版本。前方...
  • 目的通过分析抽水试验数据进行各向异性含水层参数估计,为各向异性含水层参数估计提供新的方法。方法以各向同性情况下的泰斯公式为基础,将差分进化算法应用于各向异性条件下含水层参数的估计,并将其计算结果与其他...
  • 无论是参数估计还是费参数估计目的都是为了求出总体的概率密度函数parzen窗基本原理嗯哼哼 ,画个圈圈 ,在圈圈里面又画一个正方形,在往圈圈里面随机扔豆豆,豆豆在正方形里面的概率约等于在正方形内的总数k比...
  • 参数估计、假设检验与回归

    万次阅读 2015-07-03 19:52:32
    总体架构 拟合(fitting)   ...已知某函数的若干离散函数值{f1,f2,…,fn},通过调整该函数中若干待定系数f(λ1, λ2,…,λn),使得该函数与已知点集的差别(最小二乘意义)最小。...参数估计 概念 在已知
  • 方法有最大似然估计贝叶斯参数估计法。 最大似然估计 假设参数为确定值,根据似然度最大进行最优估计。 给定数据 D 1 , D 2 . . . D c D_1,D_2...D_c D 1 ​ , D 2 ​ . . . D c ​ 表示不同类别的样本。...
  • 本文的目的是提供一种贝叶斯非参数方法来估计一个copula,我们通过混合一类参数copula来做到这一点。特别地,我们表明任何双变量copula密度可以通过高斯copula密度函数的无限混合任意精确地近似。该模型可以通过...
  • 如果文件存储位置cmd打开位置不一样,请使用绝对路径 五:命令行参数示例hello_argv.py hello_argv.py文件在桌面 import sys print("Hello,",sys.argv[1]) #这样写也行: #print("Hello,"+sys.argv[1]) 在桌面打开...
  • 假设检验与参数估计的R语言实现

    千次阅读 2017-08-16 13:08:57
    一旦能估计未知参数,就会希望根据结果对未知的真正参数值做出适当的推论。 统计上对参数的假设,就是对一个或多个参数的论述。而其中欲检验其正确性的为零假设(null hypothesis),零假设通常由研究者决定,反应...
  • 频率学派贝叶斯学派的参数估计

    千次阅读 多人点赞 2016-06-20 15:37:27
    一 频率学派与贝叶斯学派... 频率学派与贝叶斯学派的区别 在查找“极大似然估计”有关知识点的时候,经常会碰到“频率学派”“贝叶斯学派”这两个虽故事深厚,但是对于我们实际使用参数估计法并没有什么暖用的词,然
  • 3、参数估计:区间估计——求置信区间 1)置信区间是什么? 在样本估计总体均值时,我们需要知道估计的准确度,因此选定一个区间[a,b],目的是让这个区间包含总体均值,这个区间叫做置信区间。 对于这个区间有...
  • 参数估计:对无偏性的理解

    千次阅读 2020-05-26 11:45:39
    在学习概率论的"参数估计"一章时有一些概念没能理解清楚,尤其是参数估计量的性质。在反复翻书的过程中总算搞清楚了一些,在这里记录一下我的理解 无偏性 一般书上讲到的第一个性质就是这个,初看很让人头大,如果不...
  • 【数学基础】参数估计之极大似然估计

    千次阅读 多人点赞 2018-08-07 00:05:20
    猎人师傅徒弟一同去打猎,遇到一只兔子,师傅徒弟同时放枪,兔子被击中一枪,那么是师傅打中的,还是徒弟打中的? 一个袋子中总共有黑白两种颜色100个球,其中一种颜色90个,随机取出一个球,发现是黑球。那么...
  • 关于参数估计的两种途径的理解

    千次阅读 2018-08-08 14:18:15
    首先明白:参数估计的最终目标是为了得到随机变量x的密度函数,这是二者的共同目的。 然而在实现这一目的的过程中,由于对这个参数的理解不同,所以最后得到的x的密度函数的表达形式也不尽相同。 频率派认为这个...
  • OFDM完整仿真过程及解释(MATLAB)

    万次阅读 多人点赞 2019-04-19 17:03:45
    因为是复制过来,如果出现图片显示不完整以及需要源程序请点击下面链接查看原文: OFDM完整仿真过程及解释... 目录: 一、说明 二、ofdm总体概述 ...五、OFDM基本参数的选择 六、OFDM的MATLAB仿真程序 一、说...
  • 当需要估计的概率密度函数的形式未知,比如我们并不能知道样本的分布形式时,我们就无法用最大似然估计方法或贝叶斯估计方法来进行参数估计,而应该用非参数估计方法。这里就介绍三种非参数估计方法。 需要知道的是...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 93,132
精华内容 37,252
关键字:

参数估计的目的和作用