精华内容
下载资源
问答
  • 参数估计是利用样本的信息,对总体的未知参数做估计。是典型的“以偏概全”。 0. 参数及参数的估计 参数是总体分布中的参数,反映的是总体某方面特征的量。例如:合格率,均值,方差,中位数等。参数估计问题...

    :在统计学的应用中,参数估计和假设检验是最重要的两个方面。参数估计是利用样本的信息,对总体的未知参数做估计。是典型的“以偏概全”。

     

    0. 参数及参数的估计


    参数是总体分布中的参数,反映的是总体某方面特征的量。例如:合格率,均值,方差,中位数等。参数估计问题是利用从总体抽样得到的信息来估计总体的某些参数或者参数的某些函数。

     

    问题的一般提法

    设有一个统计总体,总体的分布函数为$F(x, \theta)$,其中$\theta$为未知参数。现从该总体取样本$X_1, X_2, ..., X_n$,要依据样本对参数$\theta$作出估计,或估计$\theta$的某个已知函数$g(\theta)$。这类问题称为参数估计。

     

    参数估计分类

    • 点估计,其中点估计又可以分为矩估计和最大似然估计;
    • 区间估计

    例如,估计降雨量:预计今年的降雨量为550mm,这是点估计;预计今年的降雨量为500 - 600mm,这是区间估计。

     

    1. 点估计的评价


    由于存在不同的方法对总体中的未知参数进行估计,利用这些不同的方法得到的估计值也不同。因此就涉及到如何评价不同估计量的好坏的问题。

    常用的评价准则有以下四条:

    • 无偏性准则
    • 有效性准则
    • 均方误差准则
    • 相合性准则

     

    1.1 无偏性准则

    无偏性是通过比较参数和参数估计量的期望来判断的。

     

    定义:若参数$\theta$的估计值$\hat{ \theta } = \hat{ \theta} (X_1, X_2, ..., X_n)$,满足

    $$E(\hat{ \theta }) = \theta, $$

    则称$\hat{ \theta }$是$\theta$的一个无偏估计量。

    若$E(\hat{ \theta }) \neq \theta$,那么$|E(\hat{ \theta }) - \theta|$称为估计量$\hat{ \theta }$的偏差,若$\displaystyle \lim_{ n \to \infty } E(\hat{ \theta }) = \theta$,则称$\hat{ \theta }$是$\theta$的渐进无偏估计量。

     

    无偏性的统计意义:

    无偏性的统计意义是指在大量重复试验下,由$\hat{ \theta }(X_1, X_2, ..., X_n)$给出的估计的平均值恰好是$\theta$,从而无偏性保证了$\hat{ \theta }$没有系统误差。

    图1,无偏性

    例如,工厂长期为商家提供某种商品,假设生产过程相对稳定,产品合格率为$\theta$,虽然一批货的合格率可能会高于0,,或低于0,但无偏性能够保证在较长一段时间内合格率趋近于$\theta$,所以双方互不吃亏。但作为顾客购买商品,只有两种可能,即买到的是合格产品或不合格产品,此时无偏性没有意义。

     

    1.2 有效性

    如果两种方法得到的结果都是无偏估计,那么这两种方法怎么区分好坏呢?这时候就可以用到有效性了。有效性是根据方差来判断估计值的好坏,方差较小的无偏估计量是一种更有效的估计量。

     

    图2,有效性

     

    1.3 均方误差

    在实际应用中,均方误差准则比无偏性准则更重要!

    定义:设$X_1, X_2, ..., X_n$是从带参数$\theta$的总体中抽出的样本,要估计$\theta$. 若采用$\hat{\theta}$作为参数$\theta$的点估计,则其误差为$\hat{\theta} - \theta$. 这个误差随样本$X_1, X_2, ..., X_n$的具体取值而定,也是随机的,因而其本身无法取为优良性指标. 我们取它的平方以消除符号,然后取均值,可得估计量$\hat{\theta}$的均方误差(误差平方的平均),

    $$E[(\hat{\theta} - \theta)^2], $$

    记为$Mse(\hat{\theta})$. 若$\hat{\theta}$是$\theta$的无偏估计,则有$Mse(\hat{\theta}) = D(\hat{\theta})$. 

    均方误差作为$\hat{\theta}$误差大小从整体角度的一个衡量,这个量越小,就表示$\hat{\theta}$的误差平均来说比较小,因而也就越优. 由定义可以看出来,均方误差小并不能保证$\hat{\theta}$在每次使用时一定给出小的误差,它有时也可以有较大的误差,但这种情况出现的机会比较少.

    一个例子:

    用100个学生的平均成绩作为全校学生平均成绩的估计,比起用抽出的第一个学生的成绩去估计,哪种方法更好?设总体服从正态分布,这两个估计分别是$\bar{X} = (X_1 + ... + X_{100})/100$和$X_1$,如果我们分别计算这两个估计量的均方误差,可得

    $$E[(\bar{X} - \mu)^2] = \sigma^2/100, E[(X_1 - \mu)^2] = \sigma^2$$

    故$X_1$的均方误差是$\bar{X}$的100倍(如果多次随机取样每次取100个学生,那么$X_1$可能是任意一位学生,相当于随机变量$X$;$\bar{X}$也可能是任意100位同学,相当于$\bar{X}$。比较可以发现,此时求$Mse(\bar{X})$以及$Mse(X_1)$的公式其实就是求$X$和$\bar{X}$的方差的定义)。

     

    1.4 相合性

    相合性准则是根据“依概率收敛”的形式来定义的。这个形式与大数定律的形式相同,因此也可以用“相合性”从估计的观点来对大数定律作出解释。

    定义:设$\hat{\theta}(X_1, ..., X_n)$为参数$\theta$的估计量,若对于任意$\theta$,当$n \to +\infty$时,

    $\hat{\theta}_n \to \theta \ with \ probability \ p$,即$\forall \varepsilon \gt 0$, 有$\displaystyle \lim_{ n \to \infty } P(|\hat{\theta}_n - \theta| \geq \varepsilon) = 0 \quad \ldots $(1.4-1)

    成立. 则称$\hat{\theta}_n$为$\theta$的相合估计量或一致估计量。

    对于样本均值来说,大数定律指出当样本量足够大时,样本均值依概率趋近于总体均值,就相当于这里的估计量$\hat{\theta}$依概率趋近于待估计参数$\theta$。也就是说,概率$P(|\hat{\theta}_n - \theta| \geq \varepsilon)$表示的是“当样本大小为n时,样本均值$\bar{X}_n$这个估计值与真值$\theta$的偏离达到$\varepsilon$这么大或更大”的可能性。式子1.4-1表明:随着n的增加,这种可能性越来越小,以致趋于0.

     

    1.5 相合性与渐进无偏性有什么区别?

    这两个定义看起来差不多,很容易混淆。从形式上来看,渐进无偏性要求的是随着样本量的增加,估计量的期望趋近于被估计量;而相合性要求的是估计量本身趋近于被估计量。

    如果估计量是收敛的,那么这两个定义几乎是等同的。但是如果估计量是不收敛的,例如始终是${-1, 1}$这两个数无限循环的数列,则被估计量的值恰好为0,这时候满足了渐进无偏性的条件,但是并不满足相合性的条件。因此可以说相合性比渐进无偏性的条件更加严格。满足了相合性就有极大的可能(因为相合性是依概率收敛,因此也不能说绝对满足)是满足渐进无偏性的,但是反过来却不一定。

     

    2. 再谈统计量与枢轴量


    概括的说,统计量本身完全是样本的函数,自身不包含任何未知参数(样本一旦确定,统计量的值也就定下来了),但是其分布却往往包含未知参数;枢轴量恰恰相反,枢轴量本身就包含总体中的未知参数,但是其分布的形式一般是确定的,不包含未知参数。

     

    2.1 统计量

    前面的小结中已经多次提到了统计量:小结7中对统计量做了基本说明,并且列出了常用的统计量,这些统计量可以用来对总体中的未知参数进行点估计(例如用样本均值估计总体均值);小结8中提到的三大抽样分布都是统计量的分布,这些统计量都是相互独立且服从标准正态分布的随机变量的函数(例如n个上述随机变量的平方和服从自由度为n的卡方分布)。

    由上面的内容,可以得到统计量的一些特点:

    • 统计量可以用于对总体中的未知参数进行点估计;
    • 有些统计量的分布是明确的,例如“三大统计分布”所代表的统计量;

     “三大抽样分布”都是统计量的分布,这些统计量的分布形式是明确的(有具体的数学公式,不包含未知参数),这也是为什么这三类分布在统计学中如此重要的原因之一。因为事实上大部分的统计量要么很难确定其分布,要么含有未知参数。

    除此之外,统计量还有以下特点(参考wiki):

    • 可观察性:事实上也就是说统计量不含有未知参数,一旦观察的样本确定了,统计量的值也就确定了(例如样本均值、样本方差、样本矩等);
    • 便捷性:也就是具有某种概括性,只用一个量就描述了大量样本的某些重要特性(例如样本均值);
    • 统计特性:完整性、一致性等;
    • 分布已知且用于假设检验的统计量(例如三大分布所表示的统计量)也被称为检验统计量

     

    2.2 统计量 vs 总体参数

    如果一个总体中的参数未知,例如全国人口的平均身高$\mu$,一般受限于时间或是人力物力我们不可能测量整个总体来确定这个参数的准确值。通常的做法是随机抽取一定量的样本(例如每个省抽取总人口的1%),然后求这些样本的平均身高(一个统计量),最后利用该统计量来估计总体中的未知参数。下面是wiki中的一个例子:

    一个统计参数用于计算北美所有 25 岁的男性人口的平均身高。作为采样,我们随机地选择了 100 名符合条件的人测量了身高;这 100 人的平均身高是比较容易被统计出来的,而全部符合条件的人的平均身高是很难统计的,除非把每个人都拿来测量一遍身高。当然,如果普查了所有人,那么计算得到的数据则是统计参数(总体参数),而非统计量。

     

    2.3 枢轴量

    定义:设总体$X$有概率密度(或分布律)$f(x; \theta)$,其中$\theta$是待估的未知参数。设$X_1, ..., X_n$是一个样本,记:

    $$G = G(X_1, ..., X_n; \theta)$$

    为样本和待估参数$\theta$的函数,如果$G$的分布已知,不依赖与任何参数,就称$G$为枢轴量。

    由上述定义可以看出枢轴量的几个特点:

    • 与某个待估参数有关(事实上枢轴量法主要被用于未知参数的区间估计);
    • 本身含有未知参数(待估参数),因此不具有“可观察性”,也就是说即使选定了样本也无法计算出确定的值;
    • 其分布是明确的(有具体的数学公式,不包含未知参数)。

    一个比较常见的例子:均值或方差未知的正态分布转换成标准正态分布时,随机变量中还是包含未知参数,但是其分布中却不包含任何未知参数。因此标准化之后的随机变量是一个枢轴量。

    一般正态分布与标准正态分布之间的关系: 当$X \sim N(\mu, \sigma)$时,$\frac{X - \mu}{\sigma} \sim N(0, 1)$. 参考小结4中,“正态分布”部分的性质。

     

    2.4 统计量 vs 枢轴量

    再次比较一下这两个量的异同:

    • 枢轴量和统计量都是样本的函数,但是枢轴量中还包含未知参数(待估计参数);
    • 枢轴量和统计量的分布都是某种抽样分布,与样本本身所属的总体分布不同;
    • 枢轴量的分布不依赖于任何未知参数,统计量的分布常依赖于未知参数;
    • 如果将枢轴量中的未知参数用某个已知的估计量替代,那么枢轴量就变成统计量了;
    • 统计量常用于点估计和假设检验;
    • 枢轴量常用于区间估计。

    问题:

    总体$X \sim N(\mu, \sigma^2)$,$\mu, \sigma$是未知参数. 要估计参数$\mu$. 设$X_1, ..., X_n$是一样本,请问下面三个量,

    $$\bar{X}, \frac{\bar{X} - \mu}{\sigma/\sqrt{ n } }, \frac{\bar{X} - \mu}{S/\sqrt{ n } }$$

    哪些是统计量?哪些是枢轴量?

    答:

    (1) 只有$\bar{X}$是统计量,另两个含有未知参数,所以不是统计量;

    (2) $\bar{X} \sim N(\mu, \sigma^2/n)$,分布含有未知参数;

    (3) 第二项中除了$\mu$之外,还含有其他未知参数$\sigma$(不是枢轴量);

    (4) 第三项只是$\mu$和样本的函数,服从$t(n - 1)$分布(是枢轴量)。

    从这个例子可以看出来,我们之前熟知的样本均值$\bar{X}$是一个统计量,但是它的分布是不明确的(含有未知参数);第三项是一个枢轴量,本身含有未知参数,但是分布是明确的。

     

     

    欢迎阅读“概率论与数理统计及Python实现”系列文章

     

    Reference


    https://zh.wikipedia.org/wiki/%E7%BB%9F%E8%AE%A1%E9%87%8F

    http://blog.sciencenet.cn/blog-659252-924520.html

    中国大学MOOC:浙江大学&哈工大,概率论与数理统计

    《概率论与数理统计》,陈希孺,中国科学技术大学出版社

     

    转载于:https://www.cnblogs.com/Belter/p/8337992.html

    展开全文
  • 参数估计

    2015-11-01 19:43:00
    这就是统计推断,即利用样本提供的信息对总体的某些统计特性进行估计或判断,从而认识总体。统计推断分为两大类,一类是参数估计。另一类假设检验。 首先说一下参数估计 设总体的分布函数类型已知,但其中一个或...

    在现实生活中人们经常希望能根据一些已知的信息来推断未知的信息或某一结论下定论,如医生一般根据以往病人的治疗结果来对当前病人的治愈成功率来下定论。这就是统计推断,即利用样本提供的信息对总体的某些统计特性进行估计或判断,从而认识总体。统计推断分为两大类,一类是参数估计。另一类是假设检验。

    首先说一下参数估计

    设总体的分布函数类型已知,但其中一个或几个参数未知,参数估计就是讨论如何由样本提供的信息对未知参数提出估计。一般是建立适当统计量,这种方法称为是点估计,对于未知参数来说,我们除了关心它的点估计之外,往往还希望估计出它的一个范围,以及这个范围覆盖参数真值的可靠程度,这种范围通常以区间的形式给出,这种区间就叫做参数的置信区间。

     

    参数估计与假设检验是统计推断的两个组成部分,它们是利用样本对总体进行某种推断,但推断的角度不同,参数估计讨论的用样本统计量对总体参数进行估计的方法,总体参数在估计前是未知的,而在参数的假设检验中,则先是对总体的参数提出一个假设,然后利用样本的信息检验这个假设是否成立。简言之,假设检验就是利用样本信息所提出的假设成立与否做出判断的一套程序。

    在假设检验中,我们将接触很多统计学上的专业术语基本概念,在深入探讨假设检验之前,有必要将它们理解清楚。

    假设检验中涉及的基本概念如下:

    (1)原假设和备择假设:设未知参数属于某个参数空间,现在假设参数空间被分为两个互不相交的子集,那么统计学家要做的就是确定参数到底是属于哪个参数空间

     

    转载于:https://www.cnblogs.com/zhengtaodoit/p/4928464.html

    展开全文
  • 参数估计与假设验证

    2021-01-14 11:07:50
    2、推断角度不同:在参数估计中,总体参数在估计前未知,参数估计是利用样本信息对总体参数作出估计。假设检验则是先对数值提出一个假设,然后根据样本信息检验假设是否成立。 3、特点不同:假设检验是先对总体...

    参数估计和假设的区别和联系;
    相同点:假设检验与参数估计都bai是利用样本信息对总体进行某种推断。

    不同点
    1、性质不同:参数估计根据从总体中抽取的随机样本来估计总体分布中未知参数的过程。假设检验是用来判断样本与样本、样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法。

    2、推断的角度不同:在参数估计中,总体参数在估计前未知,参数估计是利用样本信息对总体参数作出估计。假设检验则是先对数值提出一个假设,然后根据样本信息检验假设是否成立。
    3、特点不同:假设检验是先对总体的特征做出某种假设,然后通过抽样研究的统计推理,对此假设应该被拒绝还是接受做出推断。参数估计在已知系统模型结构时,用系统的输入和输出数据计算系统模型参数的过程。
    在这里插入图片描述

    1.1 参数估计

    统计学理论证明:抽样平均数作为对总体均值的预测;

    抽样平均数:
    在这里插入图片描述
    我们的市场用户平均每个月在我们的APP上花多少钱呢?但上述估计的问题在于它是一个孤立的数据点,在实际工作中,我们更通常的是将推测的数据放在一个区间里面,这样既可以更好的保证预测的准确性,也可以在实际工作中掌握一定的灵活度

    为了解决上述估计的局限性。**我们希望不是预测某个数据点,而是说预测目标会在哪个范围。这个时候统计理论再次给我们提供依据。随着抽样数据的增多,我们的样本均值也会成为正态分布。**利用前面所学习到的置信区间的知识,如果我们发现样本的数据中均值在三千九百,而样本的标准差是一百二,那我们可以马上推断出总体中百分之九十九点七的数据会落在三千九百加减三乘以一百二,也就是三千五百四十和四千二百六十之间,这也就是我们对用户所花钱的范围的回答。

    上面这种推断对应的是目标数据的可能范围,这对于我们进行整理的活动规划有着很重要的意义。为了得到用户的年龄或者消费情况,前面的参数估计是基于用户样本的数据来去估计总体用户,这是一种分析数据的思路。

    – 名词解释 –
    参数估计:就是用样本统计量去估计总体的参数。
    参数:是总体的特征数,如数学期望、方差、协方差等;相对应的从总体中抽取的样本,样本特征数叫统计量,如样本均数等.
    在这里插入图片描述
    在这里插入图片描述

    1.2 假设检验

    但是如果我们换一个角度,我们也可以根据经验或者其他方面的信息来假设一个总体用户可能的值,再根据样本情况使用某种工具来验证这个假设是否正确,这就是我们假设检验的思路。

    前面用户数据中平均的消费是在三千九百元,而现在某个第三方数据公司对于所有用户电商数据进行了统计,揭示了总体的用户平均消费是在四千一百元。尽管两百元的差距看起来并不大,但是对于细心的分析人员来说呢,我们还是希望知道这是否说明了我们APP的用户和传统的电商用户之间是有显著的消费能力差别的

    在这里插入图片描述

    1.设定我们的初始假设

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    我们在这里选择双尾检验;

    2.计算检验统计量

    在这里插入图片描述

    3.评估假设所用的临界值

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    总结下来,假设检验对总体指标进行假设,以小概率事件,就是实际上不会发生的事件这个逻辑为基础,从而用样本数据对总体情况的假设进行验证的过程。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    1.3 检查组间差异

    方差分析 —— 用于两个及两个以上样本差别的显著性检验;

    ……

    展开全文
  • 这种方法通过积分的形式,有效地利用了结果变量整个条件分布的信息.在一些正则性条件下,本文证明了所提出的半参数估计量的相合性和渐近正态性.其渐近性质的成立不依赖于扰动项的具体分布.数值模拟实验的结果表明,...
  • 在本文中,我们基于动态参数估计开发了一种新颖的模糊监督学习算法。 首先,提出了一种用于训练样本的改进监督模糊LDA算法(RF-LDA)。 与传统的模糊LDA算法相比,该算法从每个训练样本中计算与隶属度相关的判别向量...
  • 参数估计问题是利用从总体抽样得到的信息来估计总体的某些参数或者参数的某些函数. 在参数估计问题 中,假定总体分 布形式已知,未 知的仅仅是一个 或几个参数. 参数估计问题的一般提法 设有一个统计总体 , 总体...

    参数估计问题是利用从总体抽样得到的信息来估计总体的某些参数或者参数的某些函数.

    在参数估计问题 中,假定总体分 布形式已知,未 知的仅仅是一个 或几个参数.

    参数估计问题的一般提法

     设有一个统计总体 ,  总体的分布函数为F(x,\theta),其中\theta为未知参数 ( \theta可以是向量) 。现从该总体抽样,得样本X_1,X_2,\cdots,X_n要依据该样本对参数\theta作出估计, 或估计\theta的某个已知函数g(\theta)。这类问题称为参数估计。

    点估计

    引例: 已知某地区新生婴儿的体重X \sim N(\mu, \sigma),(\mu, \sigma未知)

    随机抽查100个婴儿 ,得100个体重数据,10,7,6,6.5,5,5.2, …,而全部信息就由这100个数组成 .据此,我们应如何估计\mu, \sigma

    为估计\mu

    我们需要构造出适当的样本的函数T(X_1,X_2,\cdots,X_n),每当有了样本,就代入该函数中算出一个值,用来作为\mu的估计值 。T(X_1,X_2,\cdots,X_n)称为参数\mu点估计量,把样本值代入T(X_1,X_2,\cdots,X_n)中,得到\mu的一个点估计值 。

    用样本体重的均值\bar{X}估计\mu,类似地,用样本体重的方差S^2估计\sigma^2,类似:

    \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i,S^2 = \frac{1}{n - 1} \sum_{i=1}^n( X_i -\bar{X} )^2

    寻求估计量的方法

    1. 矩估计法
    2. 最大似然估计法
    3. 最小二乘法
    4. 贝叶斯方法  

    矩估计法

    由辛钦大数定理 ,

    这表明 , 当样本容量很大时 , 在统计上 , 可以用 样本矩去估计总体矩 . 这一事实导出矩估计法.

    定义:用样本原点矩估计相应的总体原点矩 , 又用样本原点矩的连续函数估计相应的总体原点矩的 连续函数,  这种参数点估计法称为矩估计法 .理论依据:大数定律

    矩估计法的优点是简单易行,并不需要事先知道总体是什么分布 .缺点是,当总体类型已知时,没有充分利用分布提供的信息 .

    最大似然估计法

    总体类型已知条件下使用的一种参数估计方法 .

    估计量的评选标准

    关于估计量的评选标准,我们必须强调指出:评价一个估计量的好坏,不能仅仅依据一次试验的结果,而必须由多次试验结果来衡量 .

    这是因为估计量是样本的函数,  是随机变量 . 因此,由不同的观测结果,就会求得不同的参数估计值. 因此一个好的估计,应在多次试验中体现出优良性 .

    常用的几条标准是:

    1. 无偏性
    2. 有效性
    3. 相合性

    无偏性

    估计量是随机变量,对于不同的样本值会得到不同的估计值 .  我们希望估计值在未知参数真值附近摆动,而它的期望值等于未知参数的真值. 这就引出无偏性这个标准 .

    有效性

    相合性

    区间估计

    前面,我们讨论了参数点估计.   它是用样本算得的一个值去估计未知参数.   但是,点估计值仅仅是未知参数的一个近似值,它没有给出这个近似值的误差范围,使用起来把握不大.   区间估计正好弥补了点估计的这个缺陷 .

    我们希望确定一个区间,使我们能以比较高的可靠程度相信它包含真正的参数值.

    这里所说的“可靠程度”是用概率来度量的 , 称为置信度或置信水平.

    习惯上把置信水平记作1-\alpha,这里\alpha是一个 很小的正数.

    置信水平的大小是根据实际需要选定的.例如,通常可取置信水平1-\alpha =0.95或0.9等。根据一个实际样本,由给定的置信水平,我们求出一个尽可能小的区间  (\underbar{\theta}, \bar{\theta}),使P(\underbar{\theta} < \theta < \bar{\theta}) = 1 - \alpha,称区间(\underbar{\theta}, \bar{\theta})的置信水平为1-\alpha的置信区间.

    置信区间定义

    \theta是 一个待估参数,给定\alpha > 0,若由样本X_1,X_2,\cdots,X_n确定的两个统计量\underbar{\theta} = \underbar{\theta}(X_1,X_2,\cdots,X_n)\bar{\theta} = \bar{\theta}(X_1,X_2,\cdots,X_n),且(\underbar{\theta} < \bar{\theta})满足P(\underbar{\theta} < \theta < \bar{\theta}) = 1 - \alpha,则称区间(\underbar{\theta}, \bar{\theta})\theta的置信水平(置信度 )为1-\alpha的置信区间.

    \underbar{\theta}\bar{\theta}分别称为置信下限和置信上限. 

    目标:

    1.  要求\theta以很大的可能被包含在区间(\underbar{\theta}, \bar{\theta})内,就是说,概率 P(\underbar{\theta} < \theta < \bar{\theta})要尽可能大 .即要求估计尽量可靠. 
    2. 估计的精度要尽可能的高.  如要求区间长度尽可能短,\bar{\theta} - \underbar{\theta}或能体现该要求的其它准则.

    置信区间的求法

    在求置信区间时,要查表求分位点.

    标准正态分布的上\alpha分位点z_\alpha

    自由度为n的\chi^2分布的上\alpha分位点\chi^2_\alpha(n)

    自由度为n_1,n_2的F分布的上 \alpha分位数F_\alpha(n_1,n_2)

    求置信区间的一般步骤

    需要指出的是,给定样本,给定置信水平 ,置信区间也不是唯一的.对同一个参数,我们可以构造许多置信区间.

    我们可以得到未知参数的的任何置信水平小于 1 的置信区间,并且置信水平越高,相应的置信区间平均长度越长.

    也就是说,要想得到的区间估计可靠度高, 区间长度就长,估计的精度就差.这是一对矛盾.

    实用中一般在保证足够可靠的前提下,尽量使得区间的长度短一些 .

    正态总体均值与方差的区间估计

    单侧的置信区间

    前面讲述的置信区间中置信限都是双侧的,但对于有些实际问题,人们关心的只是参数在一个方向的界限.

    例如对于设备、元件的使用寿命来说,平均寿命过长没什么问题,过短就有问题了.

    这时, 可将置信上限取为+∞ ,而只着眼于置信下限 ,这样求得的置信区间叫单侧置信区间.

    单侧置信区间和置信限的定义

     

     

    展开全文
  • 概率论2---参数估计

    2016-10-28 23:31:16
    利用样本的信息对总体做推断 这里的推断怎么回事? 推断包括了统计估计和假设检验两部分 其中 统计估计 估计总体的分布或者数字特征 这其实要做两件事情: 总体分布未知,我要对它的分布做估计,这叫做非参数...
  • 1.极大似然估计中采样产生...即利用已知的样本结果信息,反推具有最大可能导致这些样本结果出现模型的参数值。 既然事情已经发生了,为什么不让这个出现结果可能性最大呢?这也就是最大似然估计的核心。 求最大
  • 参数估计(parameter estimation) 统计推断的一种。...利用样本的已知信息,反推样本的具体环境,即反推参数值。 举例来说,一堆离散的样本点,需要拟合,拟合出的函数的w系数,即反推的参数值。 这点便...
  • 概率和统计区别 概率已知模型和参数,推数据;...也即在数据集X发生情况下,哪一个参数yi发生概率最大,称为后验概率,测试结果下,结果真实概率 一个较好例子: 1、掷硬币实验...
  • 概率论-最大似然估计

    千次阅读 2017-12-11 20:20:12
    极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已...
  • 是利用样本,反找参数的最优点。不同是,一个利用数值特征,一个利用分布信息。 数值解法:贝叶斯估计的参数值,是从分布中挑出来,最合适点;而非对参数的先验分布做了调整。 MCMC:利用参数的先验,抽.....
  • ARMA谱估计的MATLAB实现

    热门讨论 2010-06-20 16:51:37
    功率谱估计是信息学科中研究热点,在过去30多年里取得了飞速发展。现代谱估计主要是针对经典谱估计(周期图和自相关法)分辨率低和方差性能不好问题而提出。其内容极其丰富,涉及学科和领域也相当广泛,按...
  • 最大似然估计&贝叶斯估计 与传统计量模型相对的统计方法...2)利用的信息不同:经估:只利用样本信息,bayes要求事先提供一个参数的先验分布,即人们对有关参数的主观认识,是非样本信息。在参数估计中它们与...
  • 我昨天晚上买了一罐八宝粥 ...极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果(我手中八宝粥)出现模型参数值(厂家原料配比)! 换句话说,极大似...
  • 一、什么是极大似然估计极大似然估计是一种参数估计的方法。它要解决这样一个问题:给定一组数据和一个参数待定模型,如何确定模型参数,使得这个确定参数后模型在所有模型中产生已知数据概率最大。通俗来...
  • 1.利用总体统计不方便甚至无法完成的现实状况,采用抽样的方式,利用样本提供的信息来推断总体的特征。 2.点估计:point estimate, 用样本统计量的某个取值直接作为总体参数的估值。 但一个点估计值的可靠性由它...
  • 极大似然估计 计算

    2020-02-06 16:59:42
    利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现模型参数值!极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。 例如,已知样本信息,并且知道...
  •  最佳估计:对样本进行观测的过程,就是把先验概率密度转化为后验概率密度, 这样就利用样本的信息修正了对参数的初始估计值。2.具体推导过程贝叶斯估计的核心:由先验概率、类条件概率密度,计算后验概率。已有...
  • 最大似然估计

    2014-08-24 14:55:17
    通俗的说说最大似然估计吧,文绉绉的概念和严谨的公式推导总是记不住,又让人昏昏欲睡.... 1.什么最大似然估计 ... 我们有什么可以利用的信息呢?样本,概率分布模型。根据什么道理来估计
  • 极大似然估计

    2015-10-11 15:16:00
    通俗的说说最大似然估计吧,文绉绉的概念和严谨的公式推导总是记不住,又让人昏昏欲睡.... 1.什么最大似然估计 ...我们有什么可以利用的信息呢?样本,概率分布模型。根据什么道理来估计呢?我们从...
  • 2 极大似然估计(Maximum likelihood estimation,简称MLE):俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现模型参数值,换句话说,极大似然估计提供了一种给定观察数据...
  • 通俗理解,最大似然估计是利用已知的样本结果信息,反推最有可能导致这种结果出现模型参数值。它提供了一种给定观察数据估计模型参数的方法(模型已定,参数未知)。 极大似然估计中采样需满足一个重要假设,...
  • nlp-最大似然估计

    2021-03-28 14:48:44
    样本过大的时候,直接统计样本的信息成本较大。因此在整体模型中抽样,根据部分信息来推测整体的模型参数。 应用场景 (1) 一个箱子中装有黑球和白球若干,很多,现需要统计箱子中黑球和白球的概率。因此采用的...
  • 极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,...
  • 一种有放回抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法。其核心思想和基本步骤如下: 1.采用重抽样技术从原始样本中抽取一定数量(自己给定)的样本,此过程允许重复抽样 ...

空空如也

空空如也

1 2 3 4 5
收藏数 90
精华内容 36
关键字:

参数估计是利用样本的信息