精华内容
下载资源
问答
  • 参数估计:点估计和区间估计

    千次阅读 2020-02-28 10:49:49
    参数估计就是根据样本统计量的数值对总体参数进行估计的过程。根据参数估计的性质不同,可以分成两种类型:点估计和区间估计。 点估计 点估计就是用样本统计量的某一具体...对总体参数进行点估计常用的方法两种...

    参数估计就是根据样本统计量的数值对总体参数进行估计的过程。根据参数估计的性质不同,可以分成两种类型:点估计和区间估计。

    点估计

    点估计就是用样本统计量的某一具体数值直接推断未知的总体参数。例如,在进行有关小学生身高的研究中,随机抽取1000名小学生并计算出他们的平均身高为1.46米。如果直接用这个1.46米代表所有小学生的平均身高,那么这种估计方法就是点估计。
    对总体参数进行点估计常用的方法有两种:矩估计与最大似然估计,其中最大似然估计就是我们实际中使用非常广泛的一种方法。 按这两种方法对总体参数进行点估计,能够得到相对准确的结果。如用样本均值X估计总体均值,或者用样本标准差S估计总体标准差σ
    点估计有一个不足之处,即这种估计方法不能提供估计参数的估计误差大小。对于一个总体来说,它的总体参数是一个常数值,而它的样本统计量却是随机变量。当用随机变量去估计常数值时,误差是不可避免的,只用一个样本数值去估计总体参数是要冒很大风险的。因为这种误差风险的存在,并且风险的大小还未知,所以,点估计主要为许多定性研究提供一定的参考数据,或在对总体参数要求不精确时使用,而在需要用精确总体参数的数据进行决策时则很少使用。

    区间估计

    区间估计就是在推断总体参数时,还要根据统计量的抽样分布特征,估计出总体参数的一个区间,而不是一个数值并同时给出总体参数落在这一区间的可能性大小,概率的保证。还是举小学生身高的例子,如果用区间估计的方法推断小学生身高,则会给出以下的表达:根据样本数据,估计小学生的平均身高在1.4~1.5米之间,置信程度为95%,这种估计就属于区间估计。

    展开全文
  • 最近在研究手部姿态估计,被问到常用的损失函数哪些的时候只能回答上来L2损失函数,所以在此整理一下姿态估计(回归)常用的损失函数。 以下内容均来自网络。 L1损失函数 L1范数损失函数,也被称为最小绝对值偏差...

    最近在研究手部姿态估计,被问到常用的损失函数有哪些的时候只能回答上来L2损失函数,所以在此整理一下姿态估计(回归)常用的损失函数。
    以下内容均来自网络。

    L1损失函数

    L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE)。总的说来,它是把目标值(Yi)与估计值(f(xi))的绝对差值的总和(S)最小化:
    在这里插入图片描述
    如果对所有样本点只给出一个预测值,那么这个值就是所有目标值的中位数。
    优点:
    -对异常值具有较好鲁棒性

    缺点:
    -梯度不变是个严重问题,即使对于很小的损失,梯度也很大,不利于模型收敛,常使用变化的学习率解决

    L2损失函数

    在这里插入图片描述

    姿态估计中最常见的损失函数。
    如果对所有样本点只给出一个预测值,那么这个值就是所有目标值的平均值。

    优点:
    -计算方便,逻辑清晰,衡量误差较准确
    -梯度随着误差增大或减小,收敛效果好

    缺点:
    -对异常点会赋予较大的权重,如果异常点不属于考虑范围,是由于某种错误导致的,则此函数指导方向将出现偏差

    Smooth L1

    smooth L1说的是光滑之后的L1,前面说过了L1损失的缺点就是有折点,不光滑,导致不稳定,那如何让其变得光滑呢?smooth L1损失函数为:
    在这里插入图片描述
    当预测值与目标值相差很大时,L2 Loss的梯度为(x-t),容易产生梯度爆炸,L1 Loss的梯度为常数,通过使用Smooth L1 Loss,在预测值与目标值相差较大时,由L2 Loss转为L1 Loss可以防止梯度爆炸。
    在这里插入图片描述

    L1与L2的比较

    在这里插入图片描述

    在这里插入图片描述

    展开全文
  • 浅谈几种基本的点估计方法及实例

    千次阅读 2018-06-19 12:37:11
    本文选择几种常用的点估计方法作一些讨论。 用于估计未知参数的统计量称为点估计(量)。参数 θθ\theta 的估计量常用 θ^=θ^(x1,x2,…,xn)θ^=θ^(x1,x2,…,xn)\hat{\theta} = \hat{\theta}(x_{1},x_{2}, \dots,...

    参数估计有两种形式:点估计与区间估计。本文选择几种常用的点估计方法作一些讨论。

    用于估计未知参数的统计量称为点估计(量)。参数 θ\theta 的估计量常用 θ^=θ^(x1,x2,,xn)\hat{\theta} = \hat{\theta}(x_{1},x_{2}, \dots, x_{n}) 表示,参数 θ\theta 的可能取值范围称为参数空间,记为 Θ={θ}\Theta = \{\theta\}

    最大似然估计

    最大似然估计,即对似然函数最大化,其关键是从样本 xx 和含有位置参数 θ\theta 的分布 p(x,θ)p(x,\theta) 获得似然函数。设 x=(x1,x2,,xn)x=(x_{1},x_{2},\dots,x_{n}) 是来自含有未知参数的某分布 p(x,θ)p(x,\theta) 的一个样本,那么其联合分布为:
    p(x,θ)=i=1np(xi,θ) p(x,\theta) = \prod_{i=1}^{n}p(x_{i},\theta) 其中 p(xi,θ)p(x_{i},\theta) 在连续场合是指密度函数在 xix_{i} 处的值,在离散场合为分布列中的一个概率 Pθ(X=xi)P_{\theta}(X=x_{i}) 。对样本分布 p(x,θ)p(x,\theta) 我们知道:

    1. 样本如何产生?先有 θ\theta 后有 xx,即先有一个给定的 θ\theta 的值 θ0\theta_{0},然后由分布 p(x,θ0)p(x,\theta_{0}) 经过随机抽样产生样本观察值 xx
    2. 如今我们有了 xx 如何追溯参数 θ0\theta_{0} 呢?当给定样本观察值 xx 时样本分布 p(x,θ)p(x,\theta) 仅是 θ\theta 的函数,可记为 L(θ,x)L(\theta,x)L(θ)L(\theta),并称其为似然函数。对于不同的 θ1,θ2Θ\theta_{1},\theta_{2}\in\Theta,可使得样本观察值 xx 出现的机会不同。若 L(θ1)>L(θ2)L(\theta_{1}) > L(\theta_{2}),表明 θ1\theta_{1} 会使 xx 出现的机会比 θ2\theta_{2} 更大些,即 θ1\theta_{1}θ2\theta_{2} 更像真值 θ0\theta_{0}。也就是说 L(θ)L(\theta) 成为了度量 θ\theta 更像真值的程度,其值越大越像。按此思路,在参数空间 Θ\Theta 中使 L(θ)L(\theta) 最大的 θ^\hat{\theta} 就是最像 θ0\theta_{0} 的真值,这个 θ^\hat{\theta} 就是 θ\theta最大似然估计

    这里给出两个实例。

    1.伯努利分布实例

    假设 P(X=1)=p,P(X=0)=1pP(X=1)=p,P(X=0)=1-p 综合起来就有
    P(X)=pX(1p)1XP(X)=p^{X}(1-p)^{1-X}
    此时如果有一组数据 DD 是从这个随机变量中采样得到的,那么就有
     maxplogP(D)=maxplogiNP(Di)=maxpiNlogP(Di)=maxpiN[Dilogp+(1Di)log(1p)] \begin{aligned} \ max_{p}\log P(D)&= \max_{p}\log\prod_{i}^{N}P(D_{i}) \\ &=\max_{p}\sum_{i}^{N}\log P(D_{i}) \\ &=\max_{p}\sum_{i}^{N}[D_{i}\log p+(1-D_{i})\log(1-p)] \end{aligned}
    对上式求导,则有
    pmaxplogP(D)=iN[Di1p+(1Di)1p1] \nabla_{p}\max_{p}\log P(D)=\sum_{i}^{N}[D_{i}\frac{1}{p}+(1-D_{i})\frac{1}{p-1}]
    求极值,令导数为 00,就有
    iN[Di1p+(1Di)1p1]=0iN[Di(p1)+(1Di)p]=0iN(pDi)=0p=1NiNDi \begin{aligned} & \sum_{i}^{N}[D_{i}\frac{1}{p}+(1-D_{i})\frac{1}{p-1}]=0 \\ & \sum_{i}^{N}[D_{i}(p-1)+(1-D_{i})p]=0 \\ & \sum_{i}^{N}(p-D_{i})=0 \\ & p=\frac{1}{N}\sum_{i}^{N}D_{i} \end{aligned}
    即全部采样的平均值。

    2.高斯分布实例

    p(x)=12πσ2e(xμ)22σ2p(x)=\frac{1}{\sqrt{2\pi\sigma^{2}}}e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}},采用同样的方法有
    maxplogP(D)=maxplogiNP(Di)=maxpiNlogP(Di)=maxpiN[12log(2πσ2)(Diμ)22σ2]=max[N2log(2πσ2)12σ2iN(Diμ)2] \begin{aligned} \max_{p}\log P(D) &= \max_{p}\log\prod_{i}^{N}P(D_{i}) \\ &= \max_{p}\sum_{i}^{N}\log P(D_{i}) \\ &= \max_{p}\sum_{i}^{N}[-\frac{1}{2}\log(2\pi\sigma^{2})-\frac{(D_{i}-\mu)^{2}}{2\sigma^{2}}] \\ &= \max[-\frac{N}{2}\log(2\pi\sigma^{2})-\frac{1}{2\sigma^{2}}\sum_{i}^{N}(D_{i}-\mu)^{2}] \end{aligned}
    此处包含两个参数,分别估计。

    首先对 μ\mu 求导,有
    maxμlogP(D)μ=1σ2iN(μDi) \frac{\partial\max_{\mu}\log P(D)}{\partial \mu} = -\frac{1}{\sigma^{2}}\sum_{i}^{N}(\mu-D_{i})
    令导数为 00,有
    1σ2iN(μDi)=0,μ=1NiNDi -\frac{1}{\sigma^{2}}\sum_{i}^{N}(\mu-D_{i})=0,\quad \mu=\frac{1}{N}\sum_{i}^{N}D_{i}
    注意很容易看出这个结果与最小二乘计算完全相同,实质上最小二乘法可以与极大似然法中假定误差遵循正态分布的特殊情况相对应。

    其次对 σ2\sigma^{2} 求导,有
    maxσ2logP(D)σ2=N2σ2+12σ4iN(Diμ)2 \frac{\partial\max_{\sigma^{2}}\log P(D)}{\partial\sigma^{2}} = -\frac{N}{2\sigma^{2}}+\frac{1}{2\sigma^{4}}\sum_{i}^{N}(D_{i}-\mu)^{2}
    令导数为 00,有
    N2σ2+14σ4iN(Diμ)2=0 -\frac{N}{2\sigma^{2}}+\frac{1}{4\sigma^{4}}\sum_{i}^{N}(D_{i}-\mu)^{2}=0
    σ2=1NiN(Diμ)2 \sigma^{2} = \frac{1}{N}\sum_{i}^{N}(D_{i}-\mu)^{2}
    可见最终计算结果与期望方差计算方式完全一致。注意最大似然估计并不一定具有无偏性。

    对似然函数添加或剔除一个与参数 θ\theta 无关的量 c(x)>0c(x)>0,不影响寻求最大似然估计的最终结果,故 c(x)L(θ)c(x)L(\theta) 仍然是 θ\theta 的似然函数。例如,对于正态分布而言:
    L(μ,σ2)=i=1n12πσ2e(xiμ)22σ2(σ2)n2exp{12σ2i=1n(xiμ)2} L(\mu,\sigma^{2}) = \prod_{i=1}^{n}\frac{1}{\sqrt{2\pi}\sigma^{2}}e^{-\frac{(x_{i}-\mu)^{2}}{2\sigma^{2}}} \propto (\sigma^{2})^{-\frac{n}{2}}\exp\left\{-\frac{1}{2\sigma^{2}}\sum_{i=1}^{n}(x_{i}-\mu)^{2}\right\}

    不变原理: 设 Xp(x,θ),θΘX\sim p(x,\theta), \theta\in\Theta,若 θ\theta 的最大似然估计为 θ^\hat{\theta} ,则对任意函数 γ=g(θ)\gamma=g(\theta)γ\gamma 的最大似然估计为 γ^=g(θ^)\hat{\gamma}=g(\hat{\theta})

    贝叶斯估计

    统计学中有两个主要学派:频率学派(又称经典学派)和贝叶斯学派。前述最大似然估计属于经典统计学范畴。频率学派利用总体信息样本信息进行统计推断,贝叶斯学派与之的区别在于还用到了先验信息

    贝叶斯学派最基本的观点是:任一未知量 θ\theta 都可以看做随机变量,可用一个概率分布区描述,这个分布称为先验分布 (记为 π(θ)\pi(\theta))。因为任一未知量都有不确定性,而在表述不确定性地程度时,概率与概率分布是最好的语言。依赖于参数 θ\theta 的密度函数在经典统计学中记为 p(x,θ)p(x,\theta),它表示参数空间 Θ\Theta 中不同的 θ\theta 对应不同的分布。在贝叶斯统计中应记为 p(xθ)p(x|\theta) ,表示随机变量 θ\theta 给定某个值时,XX 的条件密度函数。

    从贝叶斯观点看,样本 xx 的产生要分两步进行:首先,设想从先验分布 π(θ)\pi(\theta) 中产生一个样本 θ\theta' ,这一步人是看不到的,所以是“设想”;再从 p(xθ)p(x|\theta') 中产生一个样本 x=(x1,x2,x3,,xn)x=(x_{1},x_{2},x_{3},\dots,x_{n}) 。这时样本 xx 的联合条件密度函数为:
    p(xθ)=i=1np(xiθ) p(x|\theta')=\prod_{i=1}^{n}p(x_{i}|\theta') 这个联合分布综合了总体信息样本信息,又称为似然函数。它与极大似然估计中的似然函数没有什么区别。θ\theta' 仍然是未知的,它是按照先验分布 π(θ)\pi(\theta) 产生的,为了把先验信息综合进去,不能只考虑 θ\theta',对 θ\theta 的其它值发生的可能性也要加以考虑,故要用 π(θ)\pi(\theta) 进行综合。这样一来,样本 xx 和参数 θ\theta 的联合分布为:
    h(x,θ)=p(xθ)π(θ) h(x,\theta)=p(x|\theta)\pi(\theta) 这个联合分布综合了总体信息样本信息先验信息

    我们的核心目标是对 θ\theta 进行估计,若把 h(x,θ)h(x,\theta) 作如下分解:
    h(x,θ)=π(θx)m(x) h(x,\theta) = \pi(\theta|x)m(x) 其中 m(x)m(x)XX边际密度函数:
    m(x)=Θh(x,θ)dθ=Θp(xθ)π(θ)dθ m(x) = \int_{\Theta}h(x,\theta)\mathrm{d}\theta = \int_{\Theta}p(x|\theta)\pi(\theta)\mathrm{d}\theta 它与 θ\theta 无关。因此,能用来对 θ\theta 进行估计的只有条件分布 π(θx)\pi(\theta|x),它的计算公式是:
    π(θx)=h(x,θ)m(x)=p(xθ)π(θ)m(x)=p(xθ)π(θ)Θp(xθ)π(θ)dθ \pi(\theta|x)=\frac{h(x,\theta)}{m(x)} = \frac{p(x|\theta)\pi(\theta)}{m(x)} = \frac{p(x|\theta)\pi(\theta)}{\int_{\Theta}p(x|\theta)\pi(\theta)\mathrm{d}\theta} 这就是贝叶斯公式的密度函数形式。 这个条件分布称为 θ\theta后验分布,它集中了总体信息样本信息先验信息中有关 θ\theta 的一切信息。也可以说是总体和样本对先验分布 π(θ)\pi(\theta) 作调整的结果,比先验分布更接近 θ\theta 的实际情况。上述公式是在 xxθ\theta 都是连续随机变量场合下的贝叶斯公式。其它场合下的贝叶斯公式如下:

    1. xx 离散,θ\theta 连续: π(θxj)=p(xjθ)π(θ)Θp(xjθ)π(θ)dθ\pi(\theta|x_{j})=\frac{p(x_{j}|\theta)\pi(\theta)}{\int_{\Theta}p(x_{j}|\theta)\pi(\theta)\mathrm{d}\theta}
    2. xx 连续,θ\theta 离散:π(θix)=p(xθi)π(θi)ip(xθi)π(θi)\pi(\theta_{i}|x) =\frac{p(x|\theta_{i})\pi(\theta_{i})}{\sum_{i}p(x|\theta_{i})\pi(\theta_{i})}
    3. xx 离散,θ\theta 离散:π(θixj)=p(xjθi)π(θi)ip(xjθi)π(θi)\pi(\theta_{i}|x_{j}) =\frac{p(x_{j}|\theta_{i})\pi(\theta_{i})}{\sum_{i}p(x_{j}|\theta_{i})\pi(\theta_{i})}

    先验分布的确定十分关键,其原则有二:一是要根据先验信息;二是要使用方便,即在数学上处理方便。先验分布的确定有一些比较成熟的方法,如共轭先验分布法,此处不做详细讨论。

    回到我们的核心目标,寻求参数 θ\theta 的估计 θ^\hat{\theta} 只需要从后验分布 π(θx)\pi(\theta| x) 中合理提取信息即可。常用的提取方式是用后验均方误差准则,即选择这样的统计量
    θ^=θ^(x1,x2,,xn) \hat{\theta} = \hat{\theta}(x_{1},x_{2},\dots,x_{n}) 使得后验均方误差达到最小,即
    minMSE(θ^x)=minEθx(θ^θ)2 \min\mathrm{MSE}(\hat{\theta} | x) =\min E^{\theta|x}(\hat{\theta}-\theta)^{2} 这样的估计 θ^\hat{\theta} 称为 θ\theta 的贝叶斯估计,其中 EθxE^{\theta|x} 表示用后验分布 π(θx)\pi(\theta|x) 求期望。求解上式并不困难,
    KaTeX parse error: No such environment: split at position 7: \begin{̲s̲p̲l̲i̲t̲}̲ E^{\theta|x}(\… 这是关于 θ^\hat{\theta} 的二次三项式,二次项系数为正,必有最小值:
    θ^=Θθπ(θx)dθ=E(θx)\hat{\theta} = \int_{\Theta}\theta\pi(\theta|x)\mathrm{d}\theta=E(\theta|x) 也就是说,在均方误差准则下, θ\theta 的贝叶斯估计 θ^\hat{\theta} 就是 θ\theta 的后验期望 E(θx)E(\theta|x)

    类似的可证,在已知后验分布为 π(θx)\pi(\theta|x) 的情况下,参数函数 g(θ)g(\theta) 在均方误差下的贝叶斯估计为 $\hat{g}(\theta)=E[g(\theta)|x] $。

    贝叶斯公式中,m(x)m(x) 为样本的边际分布,它不依赖于 θ\theta ,在后验分布计算中仅起到一个正则化因子的作用,加入把 m(x)m(x) 省略,贝叶斯公式可改写为如下形式:
    π(θx)p(xθ)π(θ)\pi(\theta|x) \propto p(x|\theta)\pi(\theta) 上式右边虽然不是 θ\theta 的密度函数或分布列,但在需要时利用正则化立即可以恢复密度函数或分布列原型。这时,可把上式右端称为后验分布的核,加入其中还有不含 θ\theta 的因子,仍可剔去,使核更为精炼。

    展开全文
  • 这里写自定义目录标题前言一、点估计二、极大似然估计 提示:文章写完后,目录可以自动...对于随机变量来说,矩是其最广泛,最常用的数字特征,母体的各阶矩一般与的分布中所含的未知参数有关,的甚至就等于未知参数

    这里写自定义目录标题


    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


    前言

    提示:这里可以添加本文要记录的大概内容:
    例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。


    提示:以下是本篇文章正文内容,下面案例可供参考

    一、点估计

    对于随机变量来说,矩是其最广泛,最常用的数字特征,母体的各阶矩一般与的分布中所含的未知参数有关,有的甚至就等于未知参数。由辛钦大数定律知,简单随机子样的子样原点矩依概率收敛到相应的母体原点矩。这就启发我们想到用子样矩替换母体矩,进而找出未知参数的估计,基于这种思想求估计量的方法称为矩法。用矩法求得的估计称为矩法估计,简称矩估计。它是由英国统计学家皮尔逊Pearson于1894年提出的。
    例如我们来看看正态分布N(0,1)的矩估计效果。

    x<-rnorm(100) #产生N(0,1)的100个随机数

    mu<-mean(x) #对N(mu,sigma)中的mu做矩估计

    sigma<-var(x) #这里的var并不是样本方差的计算函数,而是修正的样本方差,其实也就是x的总体方差

    mu

    [1] -0.1595923

    sigma

    [1] 1.092255

    二、极大似然估计

    极大似然估计的基本思想是:基于样本的信息参数的合理估计量是产生获得样本的最大概率的参数值。
    设X1,X2,…,X100为来自P(lambda)的独立同分布样本,那么似然函数为:

    L(lambda,x)=lambda^(x1+x2+…+x100)exp(10lambda)/(gamma(x1+1)…gamma(x100+1))

    x<-rpois(100,2)

    sum(x)

    [1] 215

    ga(x)#这是一个求解gamma(x1+1)…gamma(x100+1)的函数,用gamma函数求阶乘是为了提高计算效率

    [1] 1.580298e+51

    展开全文
  • ACM 中常用的算法哪些?

    千次阅读 2018-04-02 09:51:44
    ACM 中常用的算法哪些?作者: 张俊Michael 网络上流传的答案很多,估计提问者也曾经去网上搜过。所以根据自己微薄的经验提看法。我ACM初期是训练编码能力,以水题为主(就是没有任何算法,自己靠动脑筋能够...
  • 比如我们常用的换脸、换妆、人脸识别等2C APP中的功能,都需要先进行人脸关键的检测,然后再进行其他的算法业务处理;在一些2B的业务场景中,如疲劳驾驶中对人脸姿态的估计,也可以先进行人脸关键的检测,然后再...
  • 大家找工作就要面试,面试就对付面试办法。以下一些题目来自我朋友痛苦面试经历,他给我总结了一下,...在纸上写当面考你,也在电话里问,给你IDE的估计很少(否则你赶快去买彩票, 说不定中)。所
  • 点估计常用的方法两种:矩估计和最大似然估计。之所以要做估计,最本质的问题是我们能获得的信息量(样本的数量)有限,因此只能在有限的信息中,用合理的方法、在可接受的精度或置信度下做近似计算,以便对总体...
  • app常用的一些设置里就包含了涉及到数据及源码安全的地方,下面我们来看看最常用的: 1、allowBackup数据备份泄露 manifest文件中在application节点下个属性是allowBackup,这个估计大家对它很面熟,具体的...
  • 参数估计

    2018-05-19 15:35:00
    利用样本对总体进行统计推断的一类问题是参数估计,即假定已知总体的分布,通 常是,估计有关的参数,如。...常用的是对总体均值 μ 和方差 σ2 (或标准差 σ )作点估计。当从一个样本按照式 、 算出样本均...
  • 摘要:H.264是现有最重要数据压缩编码国际标准之一。同时快速运动估计算法一直是视频压缩中的研究热点。本文针对一些快速估计算法过早确定了搜索方向,容易陷入局部最小,损失了...常用的是钻石搜索(DS)和非对称十
  • 估计无偏性,有效性和一致性

    万次阅读 2018-06-10 11:30:33
    估计量 参数的点估计就是根据样本构造一个统计量,作为总体未知参数的估计。设总体的X未知参数为seta,样本根据样本构造一个统计量(只依赖于样本,不含总体分布的任何参数。常用的统计量样本矩,次序统计量:将...
  • 摘要:H.264是现有重要数据压缩编码国际标准之一。同时快速运动估计算法一直是视频压缩中的研究热点。本文针对一些快速估计算法过早确定了搜索方向,容易陷入局部,损失了...常用的是钻石搜索(DS)和非对称十字交叉
  • 摘要:H.264是现有最重要数据压缩编码国际标准之一。快速运动估计算法一直是视频压缩中的研究热点。本文针对一些快速估计算法过早确定了搜索方向,容易陷入局部最小,损失了...常用的是钻石搜索(DS)和非对称十字交
  • 摘要:H.264是现有重要数据压缩编码国际标准之一。快速运动估计算法一直是视频压缩中的研究热点。本文针对一些快速估计算法过早确定了搜索方向,容易陷入局部,损失了...常用的是钻石搜索(DS)和非对称十字交叉多层
  • 对基于节点逐删除方法所得到的节点选择与较常用的5年和8年、7年和14年这两种节点选择进行了比较,样本外预测结果显示,基于节点逐删除方法所得到的模型对短中长期国债的预测效果都比已模型好,提高了期限结构定价...
  • 有限长信号自相关函数的估计

    千次阅读 2010-08-05 15:31:00
    有限长信号自相关函数的估计对于广义平稳随机信号自相关函数计算公式如下:而在实际中,我们遇到物理信号一般为因果性实信号,此时,自相关函数表示可以简化为:当信号在有限采样时,我们只能获得自相关...
  • ACM 中常用的算法哪些?作者:张俊Michael 网络上流传的答案很多,估计提问者也曾经去网上搜过。所以根据自己微薄的经验提看法。我ACM初期是训练编码能力,以水题为主(就是没有任何算法,自己靠动...
  • 统计方面库函数含盖了简单随机样本下常见参数估计(点估计、区间估计),假设检验.此外还含有大量涉及实验设计、线性回归、非线性回归等方面库函数.以下我们主要对matlab在概率统计方面内容做一些介绍.
  • 常用的概率分布类型及其特征 3.1 二分布和均匀分布 1、 两分布 许多随机事件只有两个结果。如抽检产品的结果合格或不合格;产品或者可靠的工作,或者失效。描述这类随机事件变量只有两个取值,一般取0...
  • 最大似然估计,就是利用已知样本结果,反推最可能(最大概率)导致这样结果参数值(模型已知,参数未知) 2、概率密度函数PDF 概率密度函数定义:当试验次数无限增加,直方图趋近于光滑曲线,曲线下包围...
  • 在有限的样本下,如何判定哪个估计最优,概率论中两种常用的principle:MLE(Maximum likelihood estimation),MAP(Maximum a posteriori estimation)。由于估计的是一个确定的参数值,MLE和MAP称为点估计。事实...
  • 在这里,我们使用曲线/线来拟合这些数据,在这种方式下,从曲线或线到数据点的距离差异最小。我会在接下来部分详细解释这一点。 比如说,在当前经济条件下,你要估计一家公司销售额增长情况。现在,你...
  • 如果我不说奇技淫巧,你们估计就不进来了 Git作为当今最流行分布式代码版本管理系统,它出现改变了软件开发流程,大大地提高了开发流畅度。 使用Git也一段时间了,一直都只是使用一些最最基本几个命令,...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 294
精华内容 117
关键字:

常用的点估计有