精华内容
下载资源
问答
  • 基于概率密度分布一致约束的最小最大概率机图像分类算法,基于概率密度分布一致约束的最小最大概率机图像分类算法
  • 结合α平稳过程特征函数的数学特性,在以往基于FFT求解α平稳过程概率密度函数算法的基础上做出如下改进:通过计算自动选择合适的采样区间和采样间隔;引入扩频进一步降低计算复杂度。实验表明,改进算法比传统算法计算...
  • 4 基于高斯概率密度异常检测算法 (待更) 4. 基于高斯概率密度异常检测算法 此篇主要介绍以下内容: 基于高斯概率密度异常检测算法概述 基于高斯概率密度异常检测算法应用实例 小结 4.1 算法概述 基本思想: 首先...

    《异常检测——从经典算法到深度学习》

    相关:

    4. 基于高斯概率密度异常检测算法

    此篇主要介绍以下内容:

    • 基于高斯概率密度异常检测算法概述
    • 基于高斯概率密度异常检测算法应用实例
    • 小结

    4.1 算法概述

    基本思想: 首先,该算法假设数据集服从高斯分布的,然后再分别计算训练集在空间中的重心, 和方差, 然后根据高斯概率密度估算每个点被分配到重心的概率,进而完成异常检测任务。

    特点:

    • 是一种非监督算法
    • 适用于大致服从高斯分布的数据集
    • 不适用于高维特征数据集。样本数目(n_samples) 应该大于特征数目的平方(n_features**2)

    注: 该算法应用场景极其有限,在此不做过多介绍。

    4.2 应用实例

    在sklearn中实现了该算法,官网文档地址

    实例1
    来自于sklearn官网,立即前往

    import numpy as np
    from sklearn.covariance import EllipticEnvelope
    true_cov = np.array([[.8, .3],
                         [.3, .4]])
    X = np.random.RandomState(0).multivariate_normal(mean=[0, 0],
                                                     cov=true_cov,
                                                     size=500)
    
    cov = EllipticEnvelope(random_state=0).fit(X)
    # predict returns 1 for an inlier and -1 for an outlier
    print(cov.predict([[0, 0],
                 [3, 3]]))
    
    print(cov.covariance_)
    
    print(cov.location_)
    

    输出内容如下:

    [ 1 -1]
    [[0.74118335 0.25357049]
     [0.25357049 0.30531502]]
    [0.0813539  0.04279722]
    

    说明:

    • numpy 中的 multivariate_normal函数 即产生多维的高斯分布的数据,这个例子中生产生二维数据集。
    • true_cov 即协方差;在随机生成多维正态分布的时候需要指定 mean 即平均值,cov 即协方差,size 则是随机生成这些数的数目。
    • cov 即生成的模型;predict 返回 1 表示正常数据,返回 -1 表示异常数据。
    • cov.covariance_ 即预测协方差矩阵(Estimated robust covariance matrix);cov.location_ 即预测 Robust 位置(Estimated robust location)

    参考文档:
    https://scikit-learn.org/stable/modules/generated/sklearn.covariance.EllipticEnvelope.html#sklearn.covariance.EllipticEnvelope
    https://scikit-learn.org/stable/modules/outlier_detection.html#outlier-detection

    4.3 小结

    只是稍微提及一下该算法,基于概率运算的算法的核心应该就是思考数学模型构建过程,但为了给后面的深度学习相关算法留更多时间,就没有再去纠结数学模型相关推导与证明了。根据sklearn官网上的说明,与此算法相关的论文(A Fast Algorithm for the Minimum Covariance Determinant Estimator) 在1999年提出的,希望能把重点放在其他算法上,所以这里只能草草浏览一下,抱歉。

    Smileyan
    2020年5月28日

    感谢您的 点赞收藏评论关注

    展开全文
  • 基于概率密度函数的辐射源定位点融合算法
  • 针对此问题,基于截断正态概率密度模型,提出了一种新的参数自适应跟踪滤波算法。该模型算法通过使用距离函数来表征目标进行机动的强弱状况,采用指数型调整函数自适应调整目标的加速度极限值和机动频率,从而实现了对...
  • 基于知网的具有词素概率密度比的词相似度算法
  • 针对小样本选煤数据分类问题,文章提出了一种基于概率密度估计的小样本分类算法。该算法首先对小样本选煤数据分类问题进行概率密度估计,然后根据估计的概率密度函数构造额外训练样本,最后将额外训练样本添加到原始...
  • 针对由单传感器概率假定密度滤波到多传感器情形推导困难的问题,提出了一种有序粒子概率假定密度跟踪算法。首先,推导出集中式多传感器粒子概率假定密度滤波模型,再根据集中式融合系统的特点,选取与多传感器相关的...
  • 针对高斯混合概率假设密度SLAM(GMPHD-SLAM) 算法存在的估计精度低和计算代价高的问题, 提出一种无迹高斯混合概率假设密度SLAM算法(unscented-GMPHD-SLAM). 其主要特点在于: 将无迹卡尔曼滤波器应用于机器人位姿粒子...
  • 基于Parzen窗方法概率密度函数盲均衡算法比恒模算法具有更好的性能,但一样会出现随机相位旋转现象。利用最大后验概率准则中的相位信息,讨论一种基于Parzen窗方法概率密度函数的并行软方p-]判决盲均衡算法。高阶QAM...
  • 针对此问题,基于截断正态概率密度模型,提出了一种新的参数自适应跟踪滤波算法。该模型算法通过使用距离函数来表征目标进行机动的强弱状况,采用指数型调整函数自适应调整目标的加速度极限值和机动频率,从而实现了...
  • 高斯粒子概率假设密度滤波在预测和更新时需要进行粒子近似和重新采样,这在一定程度上降低了算法 的精度和实时性.针对这一问题,提出一种改进的高斯粒子概率假设密度滤波算法.算法通过粒子的方式表示并传递目标的概率...
  • 基于谱概率密度的短波猝发信号检测算法,王萌,刁鸣,针对短波恶劣信道下猝发信号盲检测与起止时刻提取问题,提出一种基于短时傅里叶变换谱归一化概率密度函数的算法,利用谱归一化概
  • 针对非线性高斯场景下目标数目未知或随时间变化的机动多目标跟踪问题, 提出一种基于交互式多模型的不敏卡尔曼概率假设密度滤波算法.首先, 在高斯混 合概率假设密度滤波框架下, 结合不敏卡尔曼滤波中状态预测和量测...
  • 聚类算法概率密度函数 optics

    千次阅读 2016-03-07 09:11:19
    1 什么是OPTICS算法 在前面介绍的DBSCAN算法中,有两个初始参数E(邻域半径)和minPts(E邻域最小点数)需要用户手动设置输入,并且聚类的类簇结果对这两个参数的取值非常敏感,不同的取值将产生不同的聚类结果,...

     什么是OPTICS算法

    在前面介绍的DBSCAN算法中,有两个初始参数E(邻域半径)和minPts(E邻域最小点数)需要用户手动设置输入,并且聚类的类簇结果对这两个参数的取值非常敏感,不同的取值将产生不同的聚类结果,其实这也是大多数其他需要初始化参数聚类算法的弊端。

    为了克服DBSCAN算法这一缺点,提出了OPTICS算法(Ordering Points to identify the clustering structure)。OPTICS并 不显示的产生结果类簇,而是为聚类分析生成一个增广的簇排序(比如,以可达距离为纵轴,样本点输出次序为横轴的坐标图),这个排序代表了各样本点基于密度 的聚类结构。它包含的信息等价于从一个广泛的参数设置所获得的基于密度的聚类,换句话说,从这个排序中可以得到基于任何参数EminPtsDBSCAN算法的聚类结果。     

    2  OPTICS两个概念

    核心距离

    对象p的核心距离是指是p成为核心对象的最小E’。如果p不是核心对象,那么p的核心距离没有任何意义。

    可达距离

    对象q到对象p的可达距离是指p的核心距离和pq之间欧几里得距离之间的较大值。如果p不是核心对象,pq之间的可达距离没有意义。

    例如:假设邻域半径E=2, minPts=3,存在点A(2,3),B(2,4),C(1,4),D(1,3),E(2,2),F(3,2)

    A为核心对象,在AE领域中有点{A,B,C,D,E,F},其中A的核心距离为E’=1,因为在点AE’邻域中有点{A,B,D,E}>3;

    F到核心对象点A的可达距离为2^(1/2),因为AF的欧几里得距离2^(1/2),大于点A的核心距离1.


    3 算法描述

    OPTICS算法额外存储了每个对象的核心距离和可达距离。基于OPTICS产生的排序信息来提取类簇。

    算法描述如下:

    算法:OPTICS

    输入:样本集D, 邻域半径E, 给定点在E领域内成为核心对象的最小领域点数MinPts

    输出:具有可达距离信息的样本点输出排序

    方法:1 创建两个队列,有序队列和结果队列。(有序队列用来存储核心对象及其该核心对

             象的直接可达对象,并按可达距离升序排列;结果队列用来存储样本点的输出次

             序);

           2 如果所有样本集D中所有点都处理完毕,则算法结束。否则,选择一个未处理(即

    不在结果队列中)且为核心对象的样本点,找到其所有直接密度可达样本点,如

    过该样本点不存在于结果队列中,则将其放入有序队列中,并按可达距离排序;

          3 如果有序队列为空,则跳至步骤2,否则,从有序队列中取出第一个样本点(即可

    达距离最小的样本点)进行拓展,并将取出的样本点保存至结果队列中,如果它不

    存在结果队列当中的话。

     3.1 判断该拓展点是否是核心对象,如果不是,回到步骤3,否则找到该拓展点所

    有的直接密度可达点;

    3.2 判断该直接密度可达样本点是否已经存在结果队列,是则不处理,否则下一

    步;

    3.2 如果有序队列中已经存在该直接密度可达点,如果此时新的可达距离小于旧

    的可达距离,则用新可达距离取代旧可达距离,有序队列重新排序;

    3.3 如果有序队列中不存在该直接密度可达样本点,则插入该点,并对有序队列

       重新排序;

           4 算法结束,输出结果队列中的有序样本点。

    大家或许会很疑惑,这里不也有输入参数EMinPts吗?其实这里的EMinPts只是起到算法辅助作用,也就是说EMinPts的细微变化并不会影响到样本点的相对输出顺序,这对我们分析聚类结果是没有任何影响。

    我们采用与先前DBSCAN相同的样本点集合,

    对于样本点

    a={2,3};b={2,4};c={1,4};d={1,3};e={2,2};f={3,2};

    g={8,7};h={8,6};i={7,7};j={7,6};k={8,5};

    l={100,2};//孤立点

    m={8,20};n={8,19};o={7,18};p={7,17};q={8,21};

    并且使用相同的E=2 MinPts=4时,输出序列为

    1->a:1.0

    2->e:1.0

    3->b:1.0

    4->d:1.0

    5->c:1.4142135623730951

    6->f:1.4142135623730951

    ------

    7->g:1.4142135623730951

    8->j:1.4142135623730951

    9->k:1.4142135623730951

    10->i:1.4142135623730951

    11->h:1.4142135623730951

    ------

    12->n:2.0

    13->q:2.0

    14->o:2.0

    15->m:2.0


    按照算法,分三个阶段输出了三波值

    {a,e,b,d,c,f} ,{g,j,k,I,h},{n,q,o,m}

    这和DBSCAN的类簇结果是一样的。不仅如此,我们通过分析有序图还能直接得到当参数E=1.5,minPts=4DBSCAN的类簇结果,只要在坐标图中找到Y值小于1.5的样本点即可,只有两类{a,e,b,d,c,f} ,{g,j,k,I,h},其他点被认为是孤立点,和DBSCAN聚类算法取E=1.5,minPts=4时的结果一致。

    所以说,这个OPTICS聚类算法所得的簇排序信息等价于一个广泛的参数设置所获得的基于密度的聚类结果。

    具体实现算法如下:

    package com.optics;

    public class DataPoint {
        private String name; // 样本点名
        private double dimensioin[]; // 样本点的维度
        private double coreDistance; //核心距离,如果该点不是核心对象,则距离为-1
        private double reachableDistance; //可达距离

        public DataPoint(){
        }

        public DataPoint(DataPoint e){
            this.name=e.name;
            this.dimensioin=e.dimensioin;
            this.coreDistance=e.coreDistance;
            this.reachableDistance=e.reachableDistance;
        }

        public DataPoint(double dimensioin[],String name){
            this.name=name;
            this.dimensioin=dimensioin;
            this.coreDistance=-1;
            this.reachableDistance=-1;
        }

        public String getName() {
            return name;
        }
        public void setName(String name) {
            this.name = name;
        }
        public double[] getDimensioin() {
            return dimensioin;
        }
        public void setDimensioin(double[] dimensioin) {
           

    展开全文
  • 提出一种基于概率密度估计的动态频谱接入算法,通过由支持向量机拟合出的授权频段空闲时长的概率密度,对信道状态进行评估,认知无线电用户根据信道状况选择接入. 该算法可以进行自适应调整,具有良好的实用性与灵活...
  • 本文利用重采样后的粒子集,构造经验分布函数,用支持向量机估计状态的后验概率密度模型,再依据该模型采样,在保证粒子有效性的同时增加了粒子的多样性,从而克服粒子退化现象,并基于加权颜色直方图模型进行了行人...
  • 为实现由不同统计特性和概率分布平滑特性信号得到混合信号的盲分离,对基于支持向量机的邻域风险最小化概率密度估计算法进行研究,提出一种邻域函数的构造方法,将其与自然梯度批处理算法相结合,形成一种新的自适应...
  • 理解概率密度函数

    万次阅读 多人点赞 2018-10-31 16:37:41
    概率密度函数是概率论中的核心概念之一,用于描述连续型随机变量所服从的概率分布。在机器学习中,我们经常对样本向量x的概率分布进行建模,往往是连续型随机变量。很多同学对于概率论中学习的这一抽象概念是模糊的...

    其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习-原理、算法与应用》,清华大学出版社,雷明著,由SIGAI公众号作者倾力打造。

    概率密度函数是概率论中的核心概念之一,用于描述连续型随机变量所服从的概率分布。在机器学习中,我们经常对样本向量x的概率分布进行建模,往往是连续型随机变量。很多同学对于概率论中学习的这一抽象概念是模糊的。在今天的文章中,SIGAI将直观的解释概率密度函数的概念,帮你更深刻的理解它。

     

    从随机事件说起

    回忆我们在学习概率论时的经历,随机事件是第一个核心的概念,它定义为可能发生也可能不发生的事件,因此是否发生具有随机性。例如,抛一枚硬币,可能正面朝上,也可能反面朝上,正面朝上或者反面朝上都是随机事件。掷骰子,1到6这6种点数都可能朝上,每种点数朝上,都是随机事件。

    与每个随机事件a关联的有一个概率值,它表示该事件发生的可能性:p(a)这个概率值必须在0到1之间,22即满足下面的不等式约束:

    0<= p(a)<=1

    另外,对于一次实验中所有可能出现的结果,即所有可能的随机事件,它们的概率之和必须为1:

    这些随机事件不会同时发生,但必须有一件会发生。例如,对于抛硬币,不是正面朝上就是反面朝上,不会出现其他情况(这里假设硬币抛出去后不会立着),因此有:

    p(正面朝上)+p(反面朝上)=1

    很多时候,我们假设这些基本的随机事件发生的概率都是相等的,因此,如果有n个基本的随机事件,要使得它们发生的概率之和为1,则它们各自发生的概率都为:

    对于抛硬币,正面朝上和反面朝上的概率各为1/2,对于掷骰子,每个点朝上的概率各为1/6。对于这种只有有限种可能的情况,我们通过枚举各种可能的情况,可以算出每个事件发生的概率。例如,如果我们要计算掷骰子出现1点或者2点的概率,只需要将这两点至少有一点出现的情况数,比上所有可能的情况数,就得到概率值:

    上面的例子中,随机事件所有可能的情况只有有限种,而且可以用整数对这些随机事件进行编号,如 a_{1},a_{2},a_{3},...,

    然而,有有限就有无限,对于可能有无限种情况的随机事件,我们该如何计算它发生的概率?考虑一个简单的问题,有一个长度和高度都为1的正方形,如果我们随机的扔一个点到这个正方形里,这个点落在右上方也就是红色区域里的概率是多少?

    你可能已经想到了,直接用红色三角形的面积,比上整个正方形的面积,应该就是这个概率:

    在这里,随机点所落的位置坐标(x, y)的分量x和y都是[0, 1]区间内的实数,这有无限多种情况,不能再像之前那样把所有的情况全部列出来,统计出这些情况的数量,然后和总情况数相除得到概率值。而是使用了“面积”这一指标来计算。看来,对这种类型的随机事件,我们得借助于“长度”,“面积”,“体积”这样的积分值来计算。

    如果用集合来描述这些随机事件的话,第一种情况是有限集,我们可以给集合里的每个元素编号。第二种情况是无限集,元素的个数多到无法用整数下标来编号。

     

     

    整数集与实数集

    高中时我们学过集合的概念,并且知道整数集是z,实数集是R。对于有限集,可以统计集合中元素的数量即集合的基数(cardinal number,也称为集合的势cardinality)。对于无限集,元素的个数显然是无穷大,但是,都是无穷大,能不能分个三六九等呢?

    回忆微积分中的极限,对于下面的极限:

    虽然当x趋向于正无穷的时候,x和exp(x)都是无穷大,但它们是有级别的,在exp(x)面前,x是小巫见老巫。

    同样的,对于整数集和实数集,也是有级别大小的。任意两个整数之间,如1与2之间,都密密麻麻的分布着无穷多个实数,而且,只要两个实数不相等,不管它们之间有多靠近,如0.0000001和0.0000002,在它们之间还有无穷多个实数。在数轴上,整数是离散的,而实数则是连续的,密密麻麻的布满整个数轴。因此,实数集的元素个数显然比整数要高一个级别。

     

    随机变量

    变量是我们再熟悉不过的概念,它是指一个变化的量,可以取各种不同的值。随机变量可以看做是关联了概率值的变量,即变量取每个值有一定的概率。例如,你买彩票,最后的中奖金额x就是一个随机变量,它的取值有3种情况,以0.9的概率中0元,0.09的概率中100元,0.01的概率中1000元。变量的取值来自一个集合,可以是有限集,也可以是无限集。对于无限集,可以是离散的,也可以是连续的,前者对应于整数集,后者对应于实数集。

     

    离散型随机变量

    随机变量是取值有多种可能并且取每个值都有一个概率的变量。它分为离散型和连续型两种,离散型随机变量的取值为有限个或者无限可列个(整数集是典型的无限可列),连续型随机变量的取值为无限不可列个(实数集是典型的无限不可列)。

    描述离散型随机变量的概率分布的工具是概率分布表,它由随机变量取每个值的概率p(x = xi )= pi依次排列组成。它满足:

    下面是一个概率分布表的例子:

    表2.2 一个随机变量的概率分布表

    如果我们把前面例子中掷骰子的点数x看做是随机变量,则其取值为1-6之间的整数,取每个值的概率为1/6,这是典型的离散型随机变量。

    连续型随机变量

    把分布表推广到无限情况,就可以得到连续型随机变量的概率密度函数。此时,随机变量取每个具体的值的概率为0,但在落在每一点处的概率是有相对大小的,描述这个概念的,就是概率密度函数。你可以把这个想象成一个实心物体,在每一点处质量为0,但是有密度,即有相对质量大小。

    以上面在正方形内随机扔一个点的问题为例,此时,落点的坐标(x, y)就是连续型随机变量,落到任意一点(x, y)的概率值为0。因为这一个点的数量为1,而整个正方形内的点数为无穷大,二者之比值为0:

    这实际上是均匀分布,即落在任何一点处的概率值相等。对于有些问题,落在各个不同的点处的概率是不相等的,就像一个实心物体,有些点处的密度大,有些点处的密度小,由此引入了概率密度函数的概念。

    一个函数如果满足如下条件,则可以称为概率密度函数:

    这可以看做是离散型随机变量的推广,积分值为1对应于取各个值的概率之和为1。分布函数是概率密度函数的变上限积分,它定义为:

    显然这个函数是增函数,而且其最大值为1。分布函数的意义是随机变量的概率。注意,连续型随机变量取某一个值的概率为0,但是其取值落在某一个区间的值可以不为0:

    虽然连续型随机变量取一个值的概率为0,但取各个不通过的值的概率还是有相对大小的,这个相对大小就是概率密度函数。这就好比一个物体,在任意一点处的质量为0,但在这一点有密度值,密度值衡量了在各点处的质量的相对大小。

    从这个角度,我们可以将概率密度函数解释为随机变量落在一个区间内的概率与这个区间大小的比值在区间大小趋向于0时的极限:

    这个过程如下图所示:

    还是以上面的正方形为例,如果要计算随机点(x, y)都落在区间[0, 0.5]内的概率,可以这样计算:

    这个面积,就是积分值,对应于分布函数。最常见的连续型概率分布是正态分布,也称为高斯分布。它的概率密度函数为:

    其中μ和 σ^{2} 分别为均值和方差。现实世界中的很多数据,例如人的身高、体重、寿命等都近似服从正态分布。另外一种常用的分布是均匀分布,如果随机变量x服从区间[a,b]内的均匀分布,则其概率密度函数为:

    在程序设计和机器学习中,这两种分布是最为常见的。

    展开全文
  • 为降低基于Parzen窗随机盲均衡(SQD)算法在传输信号采用高频带利用率QAM信号时的计算复杂度,提出一种低复杂度SQD算法(LCSQD)。将判决区域从整个星座修改为一个以均衡器输出为圆心,半径为可调的圆,计算量较少,...
  • 针对传统多目标概率假设密度滤波(PHD) 器在噪声先验统计未知或不准确时滤波精度下降甚至丢失目标的问题, 设计一种自适应多模型粒子PHD(MMPHD) 滤波算法. 该算法利用多模型近似思想, 推导出一种多模型概率假设密度...
  • 多目标跟踪的混合高斯概率假设密度滤波算法,吴盘龙,陈风,为解决目标数未知或随时间变化时的多目标跟踪问题,将多目标状态和观测信息表示为随机集的形式,建立了多目标跟踪的混合高斯概率
  • (1)与该像素值历史信息(包括前几帧的像素值和像素点是前景还是背景的判断)比较,如果像素值之间的差别在指定阈值内,则认为新像素值与该历史信息是匹配的,是“潜在的”一类;所有历史信息比较完毕后,如果与...

    (1)与该像素值历史信息(包括前几帧的像素值和像素点是前景还是背景的判断)比较,如果像素值之间的差别在指定阈值内,则认为新像素值与该历史信息是匹配的,是“潜在的”一类;所有历史信息比较完毕后,如果与历史信息匹配的次数超过了设定阈值,那么:(1)新像素点被归为“潜在背景点”(2)如果被匹配的历史信息中属于背景的点个数超过设定阈值,那么新的像素点就被归为背景点

    import cv2 as cv
    import numpy as np
    # 相关函数
    # cv.VideoCapture()	初始化摄像头,0开启第一个摄像头,1开启第2个摄像头,返回摄像头对象,一般会自动打开摄像头
    # cap.read()	读取摄像头帧,返回值1表示是否成功读取帧,返回值2表示该帧
    # cv.cvtColor(frame,mode)	转换图片的色彩空间
    # cap.release()	关闭摄像头
    # cap.isOpened()	检查摄像头是否打开
    # cap.open()	打开摄像头
    # cap.get(propld)	获得该帧的大小
    # cap.set(propld,value)	设置该帧的大小
    
    video = cv.VideoCapture(0,cv.CAP_DSHOW)
    # 设置编码格式
    # MP4
    # fourcc = cv.VideoWriter_fourcc(*"mp4v")
    # avi
    # fourcc_2 = cv.VideoWriter_fourcc(*'XVID')
    # out_video = cv.VideoWriter('output.mp4',fourcc, 20.0, (640,480))
    # out_video_2 = cv.VideoWriter('ori.avi',fourcc, 20.0, (640,480))
    # 背景减法器 基于自适应混合高斯背景建模的背景减除法
    # history:用于训练背景的帧数,默认为500帧,如果不手动设置learningRate,history就被用于计算当前的learningRate,此时history越大,learningRate越小,背景更新越慢;
    # varThreshold:方差阈值,用于判断当前像素是前景还是背景。一般默认16,如果光照变化明显,如阳光下的水面,建议设为25,36,具体去试一下也不是很麻烦,值越大,灵敏度越低;
    # detectShadows:是否检测影子,设为true为检测,false为不检测,检测影子会增加程序时间复杂度,如无特殊要求,建议设为false
    
    backsub = cv.createBackgroundSubtractorKNN(history=500,dist2Threshold=16,detectShadows=True)
    while True:
        # ret 读取状态,frame image data
        ret,frame = video.read()
        # 获取掩码
        if ret:
            mask = backsub.apply(frame)
            # print(frame.shape)
            # print(mask.shape)
            # 扩充维度
            # mask = np.expand_dims(mask,axis=2).repeat(3,axis=2)
            # out_video.write(mask)
            # out_video_2.write(frame)
            # 膨胀一下
            mask = cv.dilate(mask,kernel=None,dst=3)
            # 任务最大轮廓提取
            cnts,_ = cv.findContours(mask,cv.RETR_CCOMP,cv.CHAIN_APPROX_SIMPLE)
            cv.imshow("frame",mask)
        if cv.waitKey(30) & 0xFF ==ord('q'):
            break
    #     释放资源
    video.release()
    # out_video.release()
    # out_video_2.release()
    cv.destroyAllWindows()
    
    展开全文
  • 提出了一种基于一类支持向量机的多分类贝叶斯算法,证明了基于径向基核函数的一类SVM的分类函数归一化为密度函数,并将所得的概率密度函数用于构造二分类及多分类贝叶斯分类器。仿真实验将提出的多分类贝叶斯算法应用...
  • 概率密度函数非参数估计matlab代码matLearn matLearn:Matlab中的机器学习算法实现 免责声明: 该软件包是2014年秋季我们在机器学习课程中集体努力的结果,CPSC 540由UBC的Mark Schmid博士教授。 那时,还没有任何...
  • 基于势概率假设密度滤波器的不可分辨目标跟踪算法
  • 对PHD-TBD技术进行研究,引进概率假设密度滤波平滑器,提出基于平滑的PHD-TBD算法。该算法对当前帧目标数估计时,综合利用前向递推和后向平滑结果对粒子权重进行更新,在一定程度上克服了随机量测噪声的影响。通过...
  • 上一篇博客中的paper主要思想是:在提取了图像的sift特征之后,在特征空间对特征进行coding,其中的算法用到了概率密度函数的梯度概念,这几天看了一些这方面的东西。 刚开始以为这个算法很神秘,后来才发现用的就是...
  • 概率密度估计

    2017-06-20 17:04:09
    参数估计和非参数估计(监督参数估计和非监督参数估计)组成了概率密度估计。参数估计分频率派的最大似然估计和概率派的贝叶斯估计,MLE基本就是写出似然函数—取log—求最大似然函数时的参数,如果似然函数不可导或...
  • outlier detection鲁棒性的高斯概率密度是novelty detection, 就是在给出的数据中, 找出一些与大部分数据偏离较远的异常数据, 我们的训练集不是纯净的, 包含异常点 outlier detection 的训练集是纯净的算法理解这个...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,268
精华内容 507
关键字:

概率密度算法