精华内容
下载资源
问答
  • EM算法在进行GMM参数估计怎么避免陷入局部最优,用禁忌搜索算法可以吗?有会的吗?大佬帮主如题,有会的帮帮我吧,有偿的,Q875884675
  • 然而一个很现实的问题就是,如何对SDE进行参数估计?就是,对于一个给定的含有参数的SDE,给出一些轨道,然后想要估计出参数的值来。比如已知一只股票的历史价格数据,假定它服从GBM,怎么近似出它的期望收益...

    随机微分方程,俗称SDE,相信点进来的同学们肯定对这个概念不感到陌生。SDE呢,是对现实生活中一些随机波动的事物的建模,比如可以用几何布朗运动(GBM)来模拟股价变化,用CIR模型来模拟利率波动。

    然而一个很现实的问题就是,如何对SDE进行参数估计?就是,对于一个给定的含有参数的SDE,给出一些轨道,然后想要估计出参数的值来。比如已知一只股票的历史价格数据,假定它服从GBM,怎么近似求出它的期望收益率

    和波动率
    呢?

    知乎上还没有人专门讨论过这个问题,最近看了几篇这个主题的论文,所以我来抛砖引玉了。

    问题的标准形式

    对于含参的扩散方程:

    是扩散过程的初值,
    是标准布朗运动,
    是待估计的参数。漂移项
    和扩散项
    函数已知;参数向量
    ,其中参数空间
    是紧集。为保证解的唯一性,进一步还要求漂移函数和扩散函数是Lipschitz连续的。

    扩散问题参数估计的标准形式是:已知过程

    的一系列观察点
    ,且
    ,根据
    的值,得到参数
    的估计。
    扩散过程一定满足马尔科夫性,这给研究参数估计带来了便利性。

    极大似然估计法

    面对参数估计的问题自然就会想到极大似然法,在矩估计不好用的时候,极大似然估计是点估计比较好的选择。

    由于给出的观测点都是离散的,设

    是在给定
    时刻的位置
    和参数
    的条件下的转移概率密度函数,从而我们有似然函数:

    现在麻烦的事情是这个转移概率密度怎么计算,有了它才能求似然解对不对!?

    EML

    事实上,转移概率密度满足如下PDE:

    这个抛物PDE叫做Fokker-Planck方程,证起来比较麻烦。这个方程可是在物理学有广泛的应用的。(你看大名鼎鼎的 Planck 普朗克)

    这么看,对于某些特殊的SDE,是可以从理论上求出转移密度的解析解的,继而可以精确求解极大似然函数。比如说对于CIR过程就是可以写出解析形式的转移概率密度。但是对于大多数SDE,根本没有办法解得这样一个复杂的PDE的解析解,但是退一步,可以数值求解该PDE,或者求出一个近似的解析解来代替真正的解。硬刚一个PDE确确实实可以解决咱们的问题,在一些论文里边,这种方法叫做EML(exact maximum likelihood)

    但是硬刚PDE这种方法不好操作啊,理论艰深,操作困难,关键是咱学不会。那有没有容易一点的方法?

    DML

    回忆一下SDE的两种模拟方法:

    • Euler-Maruyama方法:
    • Milstein方法:

    其中

    是标准正态分布。当扩散项
    是常数的时候,这两种方法是一样的。

    这两种方法其实都是对SDE在一个区间上的离散近似,借助这种近似(Euler方法),我们可以认为,从

    转移概率密度是均值为
    ,方差
    的正态分布密度函数,这里
    ,也就是:

    看样子问题已经有点眉目了,现在我们可以把这个转移概率密度代入到似然函数去求解似然方程啦!

    这种方法借助SDE模拟的离散形式近似估计转移概率密度,因此称作DML(discret maximum likelihood)。

    下面以CIR模型来说明一下如何用DML来进行估计和DML方法的效果,代码全部是用MATLAB写的。

    一个生动的参数估计的例子

    CIR模型:

    这里面有三个参数,

    。记
    ,通过解上面提到的似然方程可以得到三个参数应该满足的方程为:

    一般来说,先通过第二、三个方程组得到

    的估计量再代入到第一个式子得到
    的估计。总而言之,给到咱们一条轨道数据就可以求出相应参数的估计值!!!

    我们用MATLAB自带的函数来生成轨道,MATLAB对CIR模型还是有一定的支持的:

    model = cir(2, 1, 0.5, 'StartState', 1);
    [X, T] = model.simByEuler(100,'DeltaTime',0.01);

    以上第一行代码创建了一个cir类,三个参数分别是2, 1, 0.5并且起始点是1。第二行调用了这个类的simByEuler方法,以0.01s为时间间隔得到100个点,等于我们得到了一条[0,1]上以0.01为时间间隔的轨道!

    接下来我写了一个用DML方法给定一条轨道求CIR模型参数估计的函数:

    % DML.m
    function [alpha, beta, sigma] = DML(X, T)
    % 使用DML方法根据采样时间 T 和 位置 X 来估计 CIR 模型的三个参数
    
    % 别看这里符号乱,其实就是解上面那个方程组,你自己也可以写一个
    d = diff(T);
    A = sum(d);
    B = sum(X(1: end-1) .* d);
    C = X(end) - X(1);
    D = sum(d ./ X(1: end-1));
    E = sum(diff(X) ./ X(1: end-1));
    
    beta = (B - C / E * A) / (A - C / E * D);
    alpha = E / (beta * D - A);
    
    sigma = sqrt( mean( (...
        (diff(X) - alpha * (beta - X(1: end-1)) .* d ) .^ 2 ./ (X(1: end-1) .* d))));
    end

    ok,三个参数的真实值还是取为2, 1, 0.5,我们用上面的那个cir类来模拟200条轨道,然后对结果求平均数:

    DML_a = [];  % alpha
    DML_b = [];  % beta
    DML_s = [];  % sigma
    for i = 1 : 200
        [X, T] = model.simByEuler(100,'DeltaTime',0.01);
        [alpha, beta, sigma] = DML(X, T);
        DML_a = [DML_a alpha];
        DML_b = [DML_b beta];
        DML_s = [DML_s sigma];
    end

    200条轨道得到了200个参数的估计值,其结果的分布如图:

    87c1de34dfa03886ed9fcef53621da92.png

    一开始看到这个结果我以为我代码敲错了,因为

    的估计有不小的偏差,其真实值只有2,但是估计出来的结果很明显不是以2为中心的,但是
    的求解都需要依赖
    ,而后面这两个参数估计的效果还是不错的,尤其是
    ,可以看到它的方差还很小。

    DML估计法其实是个有偏估计,从上面的

    是可以看出一点端倪的。

    Conclusion

    本文提出了一般形式的随机微分方程的参数估计问题,对于其参数的极大似然估计方法提出了EML和DML两种思路,并针对比较好实现的DML方法给出了CIR模型参数估计的代码和示例。

    接下来一篇文章我会分析DML方法的不足之处,并介绍一些能够改进DML方法的思路。

    展开全文
  • 概率论2---参数估计

    2016-10-28 23:31:16
    总体分布未知,我要对它的分布做估计,这叫做非参数估计总体分布已知或者已经通过非参数估计求出来了,只需要对其中的未知参数做估计 你可能会说还有一个数字特征呢!数字特征主要是涉及到分布里面的参数,参数...
    利用样本的信息对总体做推断
    这里的推断是怎么回事?
    推断包括了统计估计和假设检验两部分
    其中
    统计估计 是估计总体的分布或者数字特征
    这其实是要做两件事情:
    1. 总体分布未知,我要对它的分布做估计,这叫做非参数估计
    2. 总体分布已知或者已经通过非参数估计求出来了,只需要对其中的未知参数做估计
    你可能会说还有一个数字特征呢!数字特征主要是涉及到分布里面的参数,参数求出来了,数字特征自然可以求出来

    对总体的分布做估计通过经验分布函数与直方图,不是重点,不讲

    接下来到对参数的估计,参数的估计主要包括两大类方法:点估计和区间估计。
    点估计是要求参数的估计量。区间估计则是从精确性和可靠性的角度来对参数做估计。点估计相对来讲是比较粗糙的。同时,点估计也是一种特殊的区间估计,所以我们做参数估计其实是在做区间估计。那为什么点估计有单独拿出来讲的必要呢?是因为点估计简单直观,使用方便么?

    参数的估计量=构造的统计量
    一个估计量对应多个估计值,一个估计值对应一个样本观测值…(或者说,估计量的实质还是一个统计量?)

    点估计主要包括矩估计和极大似然估计法
    矩估计的核心思想就是用样本原点矩来代替总体原点矩
    极大似然估计法就是要求得似然函数的最大值,可能要求导数或者偏导,也有可能是求顺序统计量

    我们通过点估计求出来了估计量以后,估计量可能有好有差。我们怎么去定义"好",主要是通过三个方面的指标:无偏性,相合性,有效性

    其中,无偏性和相合性都是针对的参数的估计值与参数的真值之间的误差来做文章。不同的是,相合性是对单次抽样的误差小于任意小的正数,将误差控制在一个很小很小的范围。无偏性是针对多次的抽样,希望多次抽样的误差均值能够越小越好,θ尖–θ的期望能够越小越好。越小就意味着我偏离的幅度就可能越小。特别的,当这个误差均值为0,也就是当参数的估计值θ的期望就等于真值θ,我们就说它是无偏的。无偏意味着真值θ两边的估计值是以θ为中心而对称的。当然,也有很大可能不是对称的,只是正好左右两边正负之和相互抵消。

    那这个时候可能会出现一种一边选的点落得少而选,另一边要近而多,我们不太喜欢它,并且那种少而远的点我们觉得其实可能是出现了什么问题,和我们的真值θ是不太匹配的。所以我们希望我们的点能够落在一个真值附近的范围里面,并且我们也希望知道我们的这个估计量可靠不可靠。比如说那个远的点就是不怎么可靠的。这些就是区间估计的内容。

    回到估计量的优良这个问题上,我们继续解释。简单提一下有效性,它是以无偏性为前提的。有效性暂时省略

    不能满足无偏时,我们可以有渐进无偏,估计值的期望在n→∞的时候等于真值θ

    我们说,点估计的主要有两个方面的问题:一是我们不知道估计的误差范围是多少,也就是没有精确性的概念。二是我们做出的这个估计有多大的可靠性,也就是可靠性。不同的估计之间的可靠性是不同的,比如说这个估计量有95%的可靠度,另外一个是80%。我们说两个估计量都是可以使用的,只是95的那个更加可靠。那区间估计是怎么解决这两个问题的?

    区间估计将参数的估计量看做随机变量,那么我们就可以从随机变量的分布来考虑这个问题。我们尝试确定一个包含了待估参数的随机变量,而这个随机变量的分布是已知的,比如标准正态分布,t分布,卡方分布,F分布

    我们尝试从样本来确定两个统计量/分位数来"卡"住估计参数,将参数的波动范围控制在某一个区间之内,这个区间就是我们的置信区间,区间的宽度反应了估计的精度/误差范围。当然,我们的样本并不能完全地落到这个区间里面,这样在就会有一个区间内和区间外的概率。我们将区间外的概率用α来表示,那么区间内的概率就是1–α了,这就是我们的置信度,或者可以理解成落在置信区间内的概率,这就反映了估计量的可靠程度。

    简言之,区间估计就是希望找到两个统计量,真值落在这两个统计量组成的区间里面的概率是1-α
    区间估计的可靠性和精确性是相互矛盾的。精确性提高,那就意味着区间宽度减小,而估计量的分布是不变的,所以这个时候夹住的这部分面积就会减小,也就是可靠度会下降。如果提高可靠度,那也就意味着不断地把两个估计值分别向两个无穷的方向延伸,这个时候估计量的取值范围会变更大,精确性就会变差。

    区间估计主要注意6个不同的正态总体分布的情况,又可以细分为一个总体和两个总体的情况,各三种。这里的公式应该和第一张里面的抽样分布定理联系起来。

    另外,对于即将到来的假设检验,还有一个很重要的问题是:参数估计和假设检验之间有什么关系?

    这个问题的答案引用知乎上用户“niaocu”的回答:
    二者都属于推断统计——利用样本的数据得到样本统计量(statistic),然后做出对总体参数(parameter)的推断。

    不同之处在于:用统计量推断参数时,如果参数未知,则这种推断叫参数估计(点估计与区间估计)——用统计量估计未知的参数;如果参数已知(或假设已知),需要利用统计量检验已知的参数是否可靠,此时的统计推断即为假设检验


    链接:https://www.zhihu.com/question/25724748/answer/35285731

    这样,我们就能知道参数估计是在做什么,假设检验是在做什么了!

    展开全文
  • 极大似然估计求解多项式分布参数

    千次阅读 2018-05-07 22:16:46
    这个多项式分布的参数,采用极大估计怎么求的呢?当时想了想还真不知道,于是在网上找了资料,学习了一下,特此记录。公式推导很多情况下,假定一个变量XX有kk个状态,其中k>2k>2,每个状态假定的可能...

    本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 内容可能有不到之处,欢迎交流。

    未经本人允许禁止转载
    #原因
    今天晚上,老师在看LDA数学八卦的时候,问我一个问题,如下图所示:

    这里写图片描述

    这个多项式分布的参数,采用极大估计是怎么求的呢?当时想了想还真不知道,于是在网上找了资料,学习了一下,特此记录。

    #公式推导
    很多情况下,假定一个变量XXkk个状态,其中k>2k>2,每个状态假定的可能性为p1,p2, ,pkp_{1},p_{2},\cdots ,p_{k},且i=1kpi=1\sum _{i=1}^{k}p_{i}=1,独立进行nn次实验,用n1,n2, ,nkn_{1},n_{2},\cdots ,n_{k}表示每个状态发生的次数,发生的次数服从多项式分布:
    p(n1,n2, ,nkp1,p2, ,pk)=n!i=1kni!i=1kpinip\left ( n_{1},n_{2},\cdots ,n_{k}|p_{1},p_{2},\cdots ,p_{k} \right )=\frac{n!}{\prod _{i=1}^{k}n_{i}!}\prod _{i=1}^{k}p_{i}^{n_{i}}

    下面采用极大似然求解:

    L(p1,p2, ,pk)=log(n!i=1kni!i=1kpini)L\left ( p_{1},p_{2},\cdots ,p_{k} \right )=log\left (\frac{n!}{\prod _{i=1}^{k}n_{i}!}\prod _{i=1}^{k}p_{i}^{n_{i}} \right )
    =log(n!)i=1klognk!+i=1klogpk=log\left ( n! \right )-\sum _{i=1}^{k}logn_{k}!+\sum _{i=1}^{k}logp_{k}

    对于有约束条件的极值求解问题可使用拉格朗日乘法:
    Lagrange(p1,p2, ,pk,λ)=L(p1,p2, ,pk)λ(i=1kpi1) Lagrange\left ( p_{1},p_{2},\cdots ,p_{k},\lambda \right )=L\left ( p_{1},p_{2},\cdots ,p_{k} \right )-\lambda\left ( \sum _{i=1}^{k}p_{i}-1 \right )

    求导(计算梯度):
    Lagrange(p1,p2, ,pk,λ)pi=nipiλ\frac{\partial Lagrange\left ( p_{1},p_{2},\cdots ,p_{k},\lambda \right )}{\partial p_{i}}=\frac{n_{i}}{p_{i} }-\lambda

    进而有:
    pi=niλp_{i}=\frac{n_{i}}{\lambda }

    由于
    i=1kniλ=1\sum _{i=1}^{k}\frac{n_{i}}{\lambda }=1

    得到:
    λ=n\lambda=n

    进而有:
    pi^=nin\hat{p_{i}}=\frac{n_{i}}{n}

    展开全文
  • 然而一个很现实的问题就是,如何对SDE进行参数估计?就是,对于一个给定的含有参数的SDE,给出一些轨道,然后想要估计出参数的值来。比如已知一只股票的历史价格数据,假定它服从GBM,怎么近似出它的期望收益...

    随机微分方程,俗称SDE,相信点进来的同学们肯定对这个概念不感到陌生。SDE呢,是对现实生活中一些随机波动的事物的建模,比如可以用几何布朗运动(GBM)来模拟股价变化,用CIR模型来模拟利率波动。

    然而一个很现实的问题就是,如何对SDE进行参数估计?就是,对于一个给定的含有参数的SDE,给出一些轨道,然后想要估计出参数的值来。比如已知一只股票的历史价格数据,假定它服从GBM,怎么近似求出它的期望收益率

    和波动率
    呢?

    知乎上还没有人专门讨论过这个问题,最近看了几篇这个主题的论文,所以我来抛砖引玉了。

    问题的标准形式

    对于含参的扩散方程:

    是扩散过程的初值,
    是标准布朗运动,
    是待估计的参数。漂移项
    和扩散项
    函数已知;参数向量
    ,其中参数空间
    是紧集。为保证解的唯一性,进一步还要求漂移函数和扩散函数是Lipschitz连续的。

    扩散问题参数估计的标准形式是:已知过程

    的一系列观察点
    ,且
    ,根据
    的值,得到参数
    的估计。
    扩散过程一定满足马尔科夫性,这给研究参数估计带来了便利性。

    极大似然估计法

    面对参数估计的问题自然就会想到极大似然法,在矩估计不好用的时候,极大似然估计是点估计比较好的选择。

    由于给出的观测点都是离散的,设

    是在给定
    时刻的位置
    和参数
    的条件下的转移概率密度函数,从而我们有似然函数:

    现在麻烦的事情是这个转移概率密度怎么计算,有了它才能求似然解对不对!?

    EML

    事实上,转移概率密度满足如下PDE:

    这个抛物PDE叫做Fokker-Planck方程,证起来比较麻烦。这个方程可是在物理学有广泛的应用的。(你看大名鼎鼎的 Planck 普朗克)

    这么看,对于某些特殊的SDE,是可以从理论上求出转移密度的解析解的,继而可以精确求解极大似然函数。比如说对于CIR过程就是可以写出解析形式的转移概率密度。但是对于大多数SDE,根本没有办法解得这样一个复杂的PDE的解析解,但是退一步,可以数值求解该PDE,或者求出一个近似的解析解来代替真正的解。硬刚一个PDE确确实实可以解决咱们的问题,在一些论文里边,这种方法叫做EML(exact maximum likelihood)

    但是硬刚PDE这种方法不好操作啊,理论艰深,操作困难,关键是咱学不会。那有没有容易一点的方法?

    DML

    回忆一下SDE的两种模拟方法:

    • Euler-Maruyama方法:
    • Milstein方法:

    其中

    是标准正态分布。当扩散项
    是常数的时候,这两种方法是一样的。

    这两种方法其实都是对SDE在一个区间上的离散近似,借助这种近似(Euler方法),我们可以认为,从

    转移概率密度是均值为
    ,方差
    的正态分布密度函数,这里
    ,也就是:

    看样子问题已经有点眉目了,现在我们可以把这个转移概率密度代入到似然函数去求解似然方程啦!

    这种方法借助SDE模拟的离散形式近似估计转移概率密度,因此称作DML(discret maximum likelihood)。

    下面以CIR模型来说明一下如何用DML来进行估计和DML方法的效果,代码全部是用MATLAB写的。

    一个生动的参数估计的例子

    CIR模型:

    这里面有三个参数,

    。记
    ,通过解上面提到的似然方程可以得到三个参数应该满足的方程为:

    一般来说,先通过第二、三个方程组得到

    的估计量再代入到第一个式子得到
    的估计。总而言之,给到咱们一条轨道数据就可以求出相应参数的估计值!!!

    我们用MATLAB自带的函数来生成轨道,MATLAB对CIR模型还是有一定的支持的:

    model = cir(2, 1, 0.5, 'StartState', 1);
    [X, T] = model.simByEuler(100,'DeltaTime',0.01);

    以上第一行代码创建了一个cir类,三个参数分别是2, 1, 0.5并且起始点是1。第二行调用了这个类的simByEuler方法,以0.01s为时间间隔得到100个点,等于我们得到了一条[0,1]上以0.01为时间间隔的轨道!

    接下来我写了一个用DML方法给定一条轨道求CIR模型参数估计的函数:

    % DML.m
    function [alpha, beta, sigma] = DML(X, T)
    % 使用DML方法根据采样时间 T 和 位置 X 来估计 CIR 模型的三个参数
    
    % 别看这里符号乱,其实就是解上面那个方程组,你自己也可以写一个
    d = diff(T);
    A = sum(d);
    B = sum(X(1: end-1) .* d);
    C = X(end) - X(1);
    D = sum(d ./ X(1: end-1));
    E = sum(diff(X) ./ X(1: end-1));
    
    beta = (B - C / E * A) / (A - C / E * D);
    alpha = E / (beta * D - A);
    
    sigma = sqrt( mean( (...
        (diff(X) - alpha * (beta - X(1: end-1)) .* d ) .^ 2 ./ (X(1: end-1) .* d))));
    end

    ok,三个参数的真实值还是取为2, 1, 0.5,我们用上面的那个cir类来模拟200条轨道,然后对结果求平均数:

    DML_a = [];  % alpha
    DML_b = [];  % beta
    DML_s = [];  % sigma
    for i = 1 : 200
        [X, T] = model.simByEuler(100,'DeltaTime',0.01);
        [alpha, beta, sigma] = DML(X, T);
        DML_a = [DML_a alpha];
        DML_b = [DML_b beta];
        DML_s = [DML_s sigma];
    end

    200条轨道得到了200个参数的估计值,其结果的分布如图:

    831187cef43247bd610ef410dd7e91f7.png

    一开始看到这个结果我以为我代码敲错了,因为

    的估计有不小的偏差,其真实值只有2,但是估计出来的结果很明显不是以2为中心的,但是
    的求解都需要依赖
    ,而后面这两个参数估计的效果还是不错的,尤其是
    ,可以看到它的方差还很小。

    DML估计法其实是个有偏估计,从上面的

    是可以看出一点端倪的。

    Conclusion

    本文提出了一般形式的随机微分方程的参数估计问题,对于其参数的极大似然估计方法提出了EML和DML两种思路,并针对比较好实现的DML方法给出了CIR模型参数估计的代码和示例。

    接下来一篇文章我会分析DML方法的不足之处,并介绍一些能够改进DML方法的思路。

    展开全文
  • 统计学,尤其是社会统计学有双重功能:化繁为简和以小见大,要掌握两对范畴:描述统计和推论统计、参数估计和假设检验。当然为了能够更好地理解这两个范畴,我们还可以引入统计值与总体值这对范畴,以帮助我们进行...
  • 2、多重共线性有什么影响共线性会导致回归参数不稳定,即增加或删除一个样本点或特征,回归系数的估计值会发生很大变化。 这是因为某些解释变量之间存在高度相关的线性关系,XTX会接近于奇异...
  • 火花2.0+:你可以用approxQuantile实现Greenwald-Khanna算法:Python:df.approxQuantile("x",[0.5],0.25)斯卡拉:df.stat.approxQuantile("x",Array(0.5),0.25)其中最后一个参数是一个相对错误。次数越少,计算结果越...
  • 首先需要说明的是,这三种方法都是用来参数估计的方法,也就是已知观测数据,来求解未知的分布(分布也就是模型)的参数θ\thetaθ的方法。 给定一组观测数据X=(x1,x2,,,xn) X = (x_1, x_2,,,x_n)X=(x1​,x2​,,,xn​)...
  • 对于矩估计的一些理解

    千次阅读 2019-11-21 12:23:41
    怎么求呢,想到分布的什么可能与参数有关,就是矩。 但是因为不知道参数是多少,所以我们不知道矩是多少,我们唯一可以做的就是从分布中抽样,用样本矩来估计这个矩,从而求得参数。 所以先求出矩,再反解用矩...
  • 最早听到最大似然估计MLE是在考研数学里面,有一道概率题,要求一组数据的最大似然估计,然后强行记住了法,具体的法就是,现在也记不清了,讲个大概流程: 先把题目给的那组数中,每个数出现的概率和它们自己...
  • 那该怎么求呢?总不能全部统计一下吧,这样太费时费力了。然后你就想到了一个好办法,通过随机抽样,取出100个男生和100个女生,然后统计他们的身高分布,然后用这200个人的身高分布近似代替总体的身高分布。 上面这...
  • 在上述复杂情况下,怎么求带宽hi(这里可以放宽些,即与第一种情况一样令hi为常数h)?显然第一种情况下,样本点xi,i=1~n,无论怎么平移都不会改变h的估计值,但是对第二种情形则不然,因为这时考虑的不单单是xi,...
  • 实在是搞不懂该怎么弄了,各位大神帮忙看一看!谢谢!! 这是那位大佬的高斯混合模型的代码,我现在有一个1×365的excel数据,我想要得到模型的估计参数值,谢谢大家了! function varargout = gmm(X, K_or_...
  • 如果采用了这一步,那这一步输出的的参数是保存的相邻帧间的运动矢量吗,这一步得出的结果又怎么和接下来的检测与跟踪配合? 如果有同学了解这方面,或做过视频运动目标检测,希望可以交流交流,我现在初步实现了...
  • 下面是报错信息: <p>Exception: Unity.IL2CPP.Building.BuilderFailedException: In file included from D:\Unity\2020.3.0f1c1\Editor\Data\il2cpp\external\xamarin-android\xamarin_getifaddrs.c:15: ...
  • 神经网络是如何工作的前言计算机所在的在本质上都是一系列的加法操作,只是计算机运行速度要快很多。...对于以前所学的知识都是出特定的参数,而在这里是使用误差值的大小去多次指导参数的调整,这就...
  • 前面学习的基于贝叶斯理论的统计模式识别方法有着一定的局限性,比如在特征维数较高或者只有少量样本时, ( | )很难准确估计。因此我们试图通过直接根据样本来一个分界面,利用分解面函数使得样本可以进行判别。...
  • 我一直想知道每幅图下面对应的等高线图是画的什么参数的等高线后来我找到了这种等高线图最早的出处,是这篇文章:Statistics of natural image categories,里面也有类似的这种等高线图,不过没上面那么好看了, ...
  • 极大似然参数估计是概率论中学习过的内容,就是预先定义概率分布模型,根据一堆的同概率分布的一堆样本数据去估计该概率模型中的未知参数。 举个例子:有很多西瓜x,我们可以得到每一个西瓜的体积数值,每一个样本...
  • 已知一个8✖️30000的矩阵,怎么求它的四阶累积量和1维对角切片。是用来做有色噪声的music 的doc估计。 累积量包已有,不知道参数怎么设置,还有程序怎么写。
  • 基础理论-极大似然

    2019-02-28 17:51:00
    官方解释 求未知参数估计的一种重要方法。思路是设一随机试验在已知条件下,有若干个结果A,B,C,…,...那怎么求呢? 2. 在某种情况(模型已知,参数已定)下,我们通过做实验,甚至可以多做几次实验,看看实...
  • 看了许多文献,以及最近的项目经验,终于真正地搞懂了LR。 以前总听大家说,看你对机器学习搞得透彻不透彻...在逻辑回归中,我们极大似然估计参数是可以通过“极大化该参数值”得到的,然而得到参数之后,并不
  • 参数估计可当作最大似然参数估计计算,进而转化为最优化问题。并由于得到的似然函数是一个高阶可导连续凸函数,可使用梯度下降法、牛顿法优化算法最优解。 引题 上一节,我们介绍了使用线性模型进行回归学习,...
  • 笔记_第七章_07

    2018-08-06 15:32:00
    用样本值来总体分布中的位置参数(如:方差,均差等) 相关知识点,参考文章 “矩估计和极大似然估计法” 极大似然估计:通俗的理解就是通过猜测参数的值,来找出某个参数下概率最大时的那个概率。参考文章...
  • 今天要来讨论的是EM算法。...怎么个意思呢,就是给你一堆观测样本,让你给出这个模型的参数估计。我靠,这套路我们前面讨论各种回归的时候不是已经用烂了吗?期望,对数期望,求导为0,得...
  • 最近看了一些SIFT算法相关,有以下疑问: 1、SIFT特征点最终是否需要找到其在原图上的对应坐标?...4、如果位于不同尺度,后面RANSAC怎么进行参数估计,如果已经还原到了原图像,什么还原的? 指点
  • 高斯混合模型是EM算法的经典应用,结合高斯混合模型进行EM算法的学习是一个较好的方法。...2、EM算法怎么在隐含变量的情况下,所需的参数解?这涉及了一系列先验概率和后验概率的知识运用,同时还需非常重要的一步

空空如也

空空如也

1 2 3
收藏数 46
精华内容 18
关键字:

参数估计怎么求