精华内容
下载资源
问答
  • 2015-05-07 18:25:41


    Background Subtraction Datasets -  Article (11 Datasets)


    1、Wallflower Test Images Sequences (J. Krumm, Microsoft Research, USA)  (7 videos, 1 Ground Truth image for each sequence)

    http://research.microsoft.com/en-us/um/people/jckrumm/wallflower/testimages.htm


    2、Perception Test Images Sequences (L. Li, Institute for Infocomm Research, Singapore) (9 videos, 20 GT images for each sequence)

    http://perception.i2r.a-star.edu.sg/bk_model/bk_index.html


    3、Carnegie Mellon Test Images Sequences (Y. Sheikh, Robotics Institute,  Canergie Mellon University, USA) (1 video, GT images for the sequence)

    http://www.cs.cmu.edu/~yaser/new_backgroundsubtraction.htm


    4、Sztaki Surveillance Benchmark Set (C. Benedek Department of Electronics Technology, Budapest University, Hungary) 

    http://web.eee.sztaki.hu/~bcsaba/FgShBenchmark.htm


    5、Limu Dataset for Detection of Moving Objects (R. Taniguchi,  Laboratory for Image and Media Understanding, Kuyshu University, Japan) 

    http://limu.ait.kyushu-u.ac.jp/dataset/en/


    6、UCSD Background Subtraction Dataset (V. Mahadevan, Statistical Visual Computing Laboratory, University of California - San Diego, USA)

    http://www.svcl.ucsd.edu/projects/background_subtraction/


    7、Stuttgart Artificial Background Subtraction Dataset (B. Hoferlin, Intelligent Systems GroupUniversitat Stuttgart, Germany

    http://www.vis.uni-stuttgart.de/en/research/information-visualisation-and-visual-analytics/visual-analytics-of-video-data/sabs.html


    8、RGB-D Object Detection Dataset (M. Camplani, Univ. of Madrid, Spain)

    http://eis.bristol.ac.uk/~mc13306/


    9、CITIC RGB-D Dataset (E. Fernandez-Sanchez , CITIC, Univ. of Granada, Spain)

    http://atcproyectos.ugr.es/mvision/


    10、Kinect Dataset for Foreground Segmentation (M. Pardas, Univ. of Catalunya, Spain)

    https://imatge.upc.edu/web/resources/kinect-database-foreground-segmentation


    11、RGB-D Rigid Multi-Body Dataset (J. Stückler, Univ. of Bonn, Germany)

    http://www.ais.uni-bonn.de/download/rigidmultibody/



    Background Subtraction Datasets -  Conference (6 Datasets)



    1、BMC 2012 Background Models Challenge Dataset (A. Vacavant, Univ. Puy en Velay, France)

    http://bmc.iut-auvergne.com/


    2、CDW 2012 Change Detection Dataset (N. Goyette, Univ. Sherbrooke, Canada)

    http://www.changedetection.net/


    3、CDW 2014 Change Detection Dataset (N. Goyette, Univ. Sherbrooke, Canada)

    http://www.changedetection.net/


    4、SBMI 2015 Dataset (L. Maddalena, National Research Council, Italy)

    http://sbmi2015.na.icar.cnr.it/


    5、VSSN 2006 Test Images Sequences (E. Hörster, Univ. of Augsburg, Germany) 

    http://mmc36.informatik.uni-augsburg.de/VSSN06_OSAC/


    6、OTCBVS 2006 Test Images Sequences (J. Davis, Ohio State University, USA) 

    http://www.vcipl.okstate.edu/otcbvs/bench/




    Background Subtraction Datasets - Project (7 Datasets)



    1、Aqu@theque Dataset (Univ. La Rochelle, France)

    https://sites.google.com/site/thierrybouwmans/recherche---aqu-theque-datahttps://sites.google.com/site/thierrybouwmans/recherche---aqu-theque-data


    2、ATON - Test Images Sequences (Computer Vision and Robotics Research Laboratory, Univ. of California, USA)

    http://cvrr.ucsd.edu/aton/shadow/index.html


    3、Fish4knowledge Dataset (University of Catania, Italy)

    http://f4k.dieei.unict.it/datasets/bkg_modeling/


    4、MAR - Maritime Activity Recognition Dataset (Lab Ro.Co.Co, Univ. Sapienza, Italy)

    http://labrococo.dis.uniroma1.it/MAR/


    5、Human Eva Dataset (Brown University, USA)

    http://vision.cs.brown.edu/humaneva/


    6、Video Coding Dataset (Institute of Digital Media, Peking University, China)

    http://mlg.idm.pku.edu.cn/resources/pku-svd-a.html


    7、MuHAVi -  Multicamera Human Action Video Dataset (S. Singh)

    http://dipersec.king.ac.uk/MuHAVi-MAS/




    更多相关内容
  • 数据集链接:https://pan.baidu.com/s/1xPg1nQ0Ic_P-mGvdFD0t2w 提取码:1234 1. 方法介绍 背景建模需要满足一定条件,保证摄像机拍摄位置不变,保证背景是基本不发生变化的。如路口的监控摄像机,只有车流人流等...

    各位同学好,今天和大家分享一下opencv背景建模相关操作。主要介绍两种背景建模方法,帧差法和混合高斯模型。

    案例简介:现有一份路口摄像机拍摄的行人流视频,通过背景建模方法,区分背景和前景,完成行人识别。

    数据集链接:https://pan.baidu.com/s/1xPg1nQ0Ic_P-mGvdFD0t2w    提取码:1234


    1. 方法介绍

    背景建模需要满足一定条件,保证摄像机拍摄位置不变,保证背景是基本不发生变化的。如路口的监控摄像机,只有车流人流等前景部分能发生移动,而马路树木等背景不能发生移动。

    判断视频中前景和背景的方法主要有两种:帧差法、混合高斯模型

    1.2 帧差法

    如下图,摄像机拍摄获取一帧一帧的连续图像,需要摄像机识别出,哪些部分是运动的,哪些部分是静止的。在摄像机拍摄位置不变的前提下,一个物体位置发生了变化,那么像素点数值也会发生变化;不发生运动的物体,它的像素点数值不基本会发生的变化。

    由于场景中的目标在运动,位置产生了差异,摄像头捕捉到的图像不同。该算法通过对时间上连续的两帧图像进行差分算法,不同帧对应的像素点相减,判断灰度差异的绝对值的变化情况,当绝对值超过一定阈值时,即可判断为运动目标,从而实现目标的检测功能。

    帧差法公式如下:

    (x, y) 代表像素点坐标,f_{n}(x,y) 代表第n帧图像,f_{n-1}(x,y) 代表第n-1帧图像,差分结果为 D_{n}(x,y)。如果差分结果大于阈值 T,将该像素点指定成255白点,代表前景;否则指定为0,代表背景

    帧差法缺点:

    第一,如果图像中存在噪音点,帧差法会引入噪音。第二,如上图右侧,人的轮廓是白色,但轮廓内是黑色的,因为人在前后两帧图像中的位置变化很小,会存在空洞问题。帧差法不常用。


    1.2 混合高斯模型

    在进行前景检测前,先对背景进行训练,对图像中每个背景采用一个混合高斯模型进行模拟,每个背景的混合高斯模型的个数可以自适应。然后在测试阶段对新来的像素进行GMM匹配,如果该像素值能够匹配其中一个高斯,则认为是背景,否则认为是前景。由于整个过程GMM模型在不断更新学习中,所以对动态背景具有一定的鲁棒性,整体的检测效果会得到提升。

    可以简单理解一下。在图像中判断前景和背景,比如在运动过程中,人服从一种分布,背景也服从一种分布。判断视频中的像素点符合哪一种分布,符合运动的就判断是前景,符合静止的就判断为背景。

    然而,背景的实际分布应当是多个高斯分布混合在一起的每个高斯模型也有其对应的权重。下图左侧是图像背景满足的两种分布,得到右侧的结果也是不同的,两种分布需要对应不同的权重。虽然整体的背景是由多个高斯分布融合在一起的,但每个分布所占的权重不一定都相同。权重是由图像中像素点的个数决定的。

    对于视频中某一块区域的一个像素点来说,虽然在视频中的位置不发生改变,但它的值会发生变化。像素点值的变化情况应当符合高斯分布


    (1)混合高斯模型的学习方法

    1. 首先初始化每个高斯模型矩阵参数。均值\mu,标准差\sigma

    2. 取视频中T帧数据图像,用来训练高斯混合模型。来了第一个像素点之后用它来当作第一个高斯分布。如:\mu 1 = 100 \,, \sigma 1=5

    3. 当后面来的像素值,与前面已有的高斯的均值比较,如果该像素点的值与其模型均值差在3倍的方差内,则属于该分布,并对其进行参数更新。

    如:第二帧的像素点的值为105,比较 (srcpoint -\mu 1= 105-100=5)<(3* \sigma 1=15),因此第二帧的像素点属于第一帧像素的分布,因此这两个数据归纳在一起,更新第一个分布的均值\mu,标准差\sigma

    4. 如果下次来的像素点不满足当前的高斯分布,用它来创建一个新的高斯分布

    如:第三帧的像素点的值为200,不满足更新后\mu,那么创建一个新的高斯分布。如:\mu 2 = 200 \,, \sigma 2=5

    一般情况下,高斯分布的个数设置3-5个,过多的话结果不好


    (2)混合高斯模型测试方法

    在测试阶段,对新来的像素点的值,与学习好了的混合高斯模型中的每一个均值比较,如果差值在2倍的方差之间,就认为是背景,否则认为是前景。将前景赋值为255,背景赋值为0


    2. 实战--行人检测

    混合高斯模型背景建模方法

    cv2.createBackgroundSubtractorMOG2().apply(image) 

    自定义卷积核

    rectkernel = cv2.getStructuringElement(shape, ksize, anchor=None)

    shape: 卷积核形状。矩形:MORPH_RECT,十字型:MORPH_CROSS,椭圆形MORPH_ELLIPSE 

    ksize: 卷积核大小

    anchor:坐标(x,y),元素内的锚定位置。默认值为(-1,-1),即结构化元素的中心。

    import numpy as np
    import cv2
    # 指定文件夹
    filepath = 'C:\\Users\\admin\\.spyder-py3\\test\\opencv\\img\\class'
    # 获取文件夹中某个视频
    video = cv2.VideoCapture(filepath + '\\test.avi')
    # 自定义卷积核--矩形,用于形态学处理
    kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3,3))
    # 创建混合高斯模型用于背景建模
    back = cv2.createBackgroundSubtractorMOG2()
    # 读取每一帧并处理
    while True:
        ret, frame = video.read() #每次读取一帧,返回是否打开和每帧图像
        img = back.apply(frame) #背景建模
        # 开运算(先腐蚀后膨胀),去除噪声
        img_close = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel)
        # 轮廓检测,获取最外层轮廓,只保留终点坐标
        contours,hierarchy = cv2.findContours(img_close,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
        # 计算轮廓外接矩形
        for cnt in contours:
            # 计算轮廓周长
            length = cv2.arcLength(cnt,True)
            if length>188:
                # 得到外接矩形的要素
                x,y,w,h = cv2.boundingRect(cnt)
                # 画出这个矩形,在原视频帧图像上画,左上角坐标(x,y),右下角坐标(x+w,y+h)
                cv2.rectangle(frame,(x,y),(x+w,y+h),(0,0,255),2)
        # 图像展示
        cv2.imshow('frame',frame) # 原图
        cv2.imshow('img',img)  # 高斯模型图
        # 设置关闭条件,一帧200毫秒
        k = cv2.waitKey(100) & 0xff
        if k == 27:  #27代表退出键ESC
            break
    # 释放资源
    video.release()
    cv2.destroyAllWindows()

    某一帧的效果图如下

    展开全文
  • GMM(高斯混合模型)的动态背景分割的实验报告以及源码,数据集。 另外用到了形态学操作与多通道的处理,提升了实验结果的性能。
  • 针对灰度视频的目标检测依赖先验知识、召回率低以及单一算法无法同时兼顾静态与动态背景等问题,提出一种基于统计的背景建模算法。该算法无需先验知识,根据统计信息可以准确区分静态背景和动态背景,并采取不同的检测...
  • 背景建模数据库汇总

    2014-07-31 10:10:17
    1.Statistical Modeling of Complex ...这个数据库是背景建模中最常用的,一共有九段不同场景下的视频,包括室内室外场景。 下载地址:http://perception.i2r.a-star.edu.sg/bk_model/bk_index.html 2.Test
    1. Statistical Modeling of Complex Background for Foreground Object Detection
    这个数据库是背景建模中最常用的,一共有九段不同场景下的视频,包括室内室外场景。
    背景建模数据库汇总


    2.Test Images for Wallflower Paper
    此数据库一共有7段不同的测试视频

    背景建模数据库汇总


    3.阴影检测去除数据库

    4.其他
    http://www.cvg.rdg.ac.uk/slides/pets.html
    http://www.cipr.rpi.edu/resource/sequences/
    http://video.dot.ca.gov/
    http://www.research.ibm.com/peoplevision/performanceevaluation.html

    展开全文
  • 关于图像背景建模以及 运动轮廓的提取。。
  • 数据是深度学习的输入,很重要而又...从最常用的数据集开始到各个子任务领域中使用的数据集,对于轻视数据的朋友,请关注大佬们早期都在做什么。 今天说5个最常用的,他们对于深度学习网络的发展,通用的分类/...

    https://www.toutiao.com/i6695876104390967820/

     

    数据是深度学习的输入,很重要而又容易被人忽视,而且缺乏系统性的介绍资料,从这个板块开始,我们来给大家系统性的介绍深度学习中的数据集。

    从最常用的数据集开始到各个子任务领域中使用的数据集,对于轻视数据的朋友,请关注大佬们早期都在做什么。

    今天说5个最常用的,他们对于深度学习网络的发展,通用的分类/分割/检测任务的评测具有其他数据集不可比拟的作用。

    01 mnist【1】

    数据集链接:http://yann.lecun.com/exdb/mnist/,发布于1998年。

    如果说LeNet-5是深度学习的hello world,那么mnist就是深度学习数据集里的“hello world”,看看文【1】的作者,Yann Lecun,Y.Bengio,Patrick Haffner就知道了。

    如果你想了解早期学者们对gradient-based learning(基于梯度的学习方法)方法的一点努力,想了解为什么卷积神经网络需要local reception field(局部感受野),需要sub-sample(下采样),需要shared weights(共享权重)不妨细读这篇40多页的论文,不只是LeNet-5这个网络,更是一个完整的系统的描述。

    mnist是一个手写数字的数据集,来自美国国家标准与技术研究所(National Institute of Standards and Technology),简称 NIST。样本来自250个不同人的手写数字, 其中50%是高中学生,50%是人口普查局的工作人员。数字从0~9,图片大小是28*28,训练数据集包含 60000个样本,测试数据集包含10000个样本,示例图如下。

    「数据集」深度学习从“数据集”开始

     

    数据集由Chris Burges和Corinna Cortes搜集,他们裁剪出数字,将其放在20x20像素的框中,并保持了长宽比率,然后放在28*28的背景中,这也是Lecun提供给我们的数据集版本,数字的重心在图的正中间。

    原来20*20的数字是二值图,在经过插值后放在28*28的背景下成了灰度图。在LeNet5中使用的输入是32*32,远大于数字本身尺度最大值,也就是20*20。这是因为对于分类来说潜在的重要的笔触信息,需要在最高层的检测子的感受野中心,而LeNet-5经历了两个5*5的卷积,并且没有padding操作,最后卷积层的featuremap大小10*10正好能够覆盖原图正中间20*20的区域。

    02 cifar10和cifar100【2】

    数据集链接:http://www.cs.toronto.edu/~kriz/cifar.html,发布于2009年。

    cifar数据集由Alex Krizhevsky, Vinod Nair, and Geoffrey Hinton等人收集。这里的Alex Krizhevsky正是alexnet那个“alex”,这个hinton就不用说了,你看大牛们谁还没倒过数据,而现在很多学生还不愿意整理数据。

    cifar数据集包含两个,一个是cifar10,一个是cifar100。

    mnist数据集有几个缺陷(1)只是灰度图像(2)类别少,只是手写数字(3)并非真实数据,没有真实数据的局部统计特性

    所以将mnist用于评估越来越深的神经网络当然不再恰当,因此需要更大的真实的彩色数据集,需要更好的多样性。

    cifar10被适时地整理出来,这也是一个只用于分类的数据集,是tiny数据集的子集。后者是通过选取wordnet中的关键词,从google,flick等搜索引擎中爬取,去重得来。

    数据集共有60000张彩色图像,图像大小是32*32,共10个类,每类6000张图。其中50000张组成训练集合,每一类均等,都是5000张图。另外10000为测试集合,每一类也是均等,各1000张。

    cifar10里的图片满足一些基本的要求(1)都是真实图片而不是手稿等(2)图中只有一个主体目标(3)可以有部分遮挡,但是必须可辨识,这可以成为我们以后整理数据集的参考。

    可以看出,cifar10有点类似于类别多样性得到了扩充的mnist的彩色增强版,图像大小差不多,数据集大小也一样,类别也相等。

    「数据集」深度学习从“数据集”开始

     

    如上图,10个类别分别是airplane,automobile,bird,cat,deer,dog,frog,horse,ship,truck,其中airplane,automobile,ship,truck都是交通工具,bird,cat,deer,dog,frog,horse都是动物,可以认为是两个大的品类。而交通工具内部,动物内部,都是完全不同的物种,这些都是语义上完全可以区分的对象,所以cifar10的分类任务,可以看作是一个跨物种语义级别的图像分类问题。类间方差大,类内方差小。

    cifar100数据集则包含100小类,每小类包含600个图像,其中有500个训练图像和100个测试图像。与cifar10不同的是,100类被分组为20个大类,而每一个大类,又可以细分为子类,所以每个图像带有1个小类的“fine”标签和1个大类“coarse”标签。

    「数据集」深度学习从“数据集”开始

     

    大类之间,没有重叠容易区分,但是小类之间,会有一定的相似性,以第一个大类为例;aquatic mammals,就是水生哺乳动物,它包括beaver河狸, dolphin海豚, otter水獭, seal海豹, whale 鲸鱼,感受一下差别。

    「数据集」深度学习从“数据集”开始

     

    03 PASCAL【3】

    数据集链接:http://host.robots.ox.ac.uk/pascal/VOC/,初始发布于2005年,至2012年止。

    The PASCAL Visual Object Classes (VOC)项目是由Mark Everingham等人牵头举办的比赛,这是一个时间跨度很大的比赛,从2005年到2012年,起初主要用于object detection(目标检测),最后包含了5个比赛,classification,detection,segmentation,action classification,person layout

    PASCAL是什么呢?即Pattern Analysis, Statistical Modelling and Computational learning,不要用了这么久都不知道这是什么意思。顾名思义,这是一个用于模式分析和统计建模的数据集,包括图像分类,目标检测,分割等任务。

    2005年,数据集还只有4类,即bicycles, cars, motorbikes, people,共1578张图片,现在已经没有人用05年的数据集了。

    2007年增加到了20类,如下

    「数据集」深度学习从“数据集”开始

     

    图都是来源于图片社交网站flickr,总共9,963 张图,24,640个标注目标。

    12年最后一届比赛将数据增加到11,530张图,27,450个目标框标注,6,929个分割标注,07年和12年的数据集,各自仍然被广泛使用。

    「数据集」深度学习从“数据集”开始

     

    从07年开始引进了图像分割的标注和人体布局的标注。

    「数据集」深度学习从“数据集”开始

     

    「数据集」深度学习从“数据集”开始

     

    从10年开始引进了行为分类标注。

    「数据集」深度学习从“数据集”开始

     

    从07年开始,使用average precision替换掉了ROC曲线下面的AUC(area under curve),提高了评估算子的敏感性,因为在VOC2006很多方法的AUC超过了95%,不好进一步区分算法的能力。此后要想获得高的指标,必须要在各种recall级别下保证精度,这也就意味着仅以很高精度召回部分样本的算法评测指标下降,这对于样本数量不均衡的数据集评测效果更好。

    更多详细评测方法可以精读手册和参考文【6】,此处不再详述。

    04 imagenet【4】

    数据集链接:http://www.image-net.org/,09年李飞飞实验室发布。

    ImageNet是李飞飞实验室主导的一个项目,目标是构建一个计算机视觉研究的大型数据库,关键词从WordNet中选取。完整的Imagenet数据集有1400多万幅图片,涵盖2万多个类别的标注与超过百万的边界框的标注,每一个类别大概是500~1000张图片,标注采用了亚马逊的众包平台,这个平台之后被用于构建各种数据集。

    09年cvpr正式发布了imagenet,此后从10年到17年共举办了8届Large Scale Visual Recognition Challenge(ILSVRC)比赛,包括图像分类,目标检测,目标定位单元。

    「数据集」深度学习从“数据集”开始

     

    开始的开始,imagenet是一个连经费都申请不到的整理数据的项目,为很多研究者们不耻,但科技公司的竞赛热情以及数据集史无前例的多样性,让陷身于过拟合的算法,从数据集本身看到了新的出路,之后的故事大家也就都知道了。

    由于类别多,imagenet不可能像mnist那样简单的将所有图片分成互不相干的10类,而是采用了wordnet中树形结构的组织方式。

    下面展示了从哺乳动物到有胎盘哺乳动物到肉食动物到犬科的到狗到工作中的狗到哈士奇的这样的不断精细分的类。

    「数据集」深度学习从“数据集”开始

     

    imagenet竞赛中使用的是imagenet的一个子类,包括1000类,其中大部分是动物,所以我们常常看到拿动物说事的例子,不是猫就是狗,事实上李飞飞等在整理出imagenet之前,确实有过一些dogs vs cats的数据集,猫狗大战,不亦乐乎。

    「数据集」深度学习从“数据集”开始

     

    虽然我们经常用着imagenet调试出来的模型,不过大部分人未必真的知道imagenet的构建过程和历史,有兴趣的同学应该去了解一下,此处我们也没法过于详述了。

    05 mircosoft coco【5】

    数据集链接:http://cocodataset.org/,发布于2014年,MSRA出品必属精品了。

    microsoft coco数据集,可以说就是对标pascal,imagenet数据集出现的,同样可以用于图像分类,分割,目标检测等任务,共30多万的数据。COCO数据集有91类,以人类4岁小孩能够辨识为基准。其中82个有超过5000个instance(instance即同一个类不同的个体,比如图像中不同的人)。

    从coco的全称Common Objects in Context可以看出,这个数据集以场景理解为目标,特别选取比较复杂的日常场景,相比于pascal的建立是为了推进目标检测任务,coco的建立则是为了推进自然背景下的定位与分割任务,所以图像中的目标通过非常精确的segmentation掩模进行位置的标定。

    数据集的建立动机是研究3个问题(1)non-iconic views(2)

    contextual reasoning between objects(3)precise 2D localization。

    第一个问题,要求数据集中的图像,尽量不要只是包括一个大的目标或者一个空的场景的图像,而是都有,如下图中的c而不是a,b。

    「数据集」深度学习从“数据集”开始

     

    第二个问题就是场景的覆盖性,需要广而且足够复杂。数据集总共有328,000图像和2,500,000个label。与ImageNet和sun相比,类别数目更少,但是每一个类别的instance更多,这其实是有利于目标定位任务的,因为多样性更好。对比PASCAL VOC,COCO则要大的多,有更多类和instance。

    「数据集」深度学习从“数据集”开始

     

    第三个问题精确定位,我们可以看下面的instance segmention的标注结果,非常精确,而定位的边框也是从该掩膜生成,非常准确。

    「数据集」深度学习从“数据集”开始

     

    总的来说,coco相对于imagenet和pascal是一个更难的数据集,因此在相关任务上我们也需要多关注比较。

    06 总结

    好了,这篇作为这个系列的总纲,我们往后会进行任务的分类单独介绍。很多人天天在用数据集但是从没有认真看过数据集的构建和背后的动机,希望这个系列能给大家带来更多理解。

     

    [1] LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [2] Krizhevsky A, Hinton G. Learning multiple layers of features from tiny images[R]. Technical report, University of Toronto, 2009.

    [3] Everingham M, Van Gool L, Williams C K I, et al. The pascal visual object classes (voc) challenge[J]. International journal of computer vision, 2010, 88(2): 303-338.

    [4] Deng J, Dong W, Socher R, et al. Imagenet: A large-scale hierarchical image database[C]//Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. Ieee, 2009: 248-255.

    [5] Lin T Y, Maire M, Belongie S, et al. Microsoft coco: Common objects in context[C]//European conference on computer vision. Springer, Cham, 2014: 740-755.

    [6] Davis J, Goadrich M. The relationship between Precision-Recall and ROC curves[C]//Proceedings of the 23rd international conference on Machine learning. ACM, 2006: 233-240.

    展开全文
  • 平均背景建模、Vibe背景建模、CodeBook背景建模、gauss混合背景建模总结
  • Image数据集

    千次阅读 多人点赞 2019-11-23 15:36:18
    原文链接: ...一、行动数据库 20bn-Something-Something - 密集标记的视频剪辑,显示人类使用日常物品执行预定义的基本动作(Twenty Billion Neurons GmbH) 3D在线行动数据集 - 有七个行动类别(微软和南...
  • 海南岛夜间灯光与统计数据融合的人口500m栅格数据集(2013-2018)是在海南岛2013-2018年NPP/VIIRS夜间灯光数据预处理(影像合成、不稳定光源去除以及逐年校正等处理,消除短暂性光源和背景噪声的影响等)基础上,...
  • 数仓建模数据集成

    万次阅读 2021-09-04 10:15:20
    其实数据集成是数仓的一个基本特点,这里我们再回顾一下数仓的特性,或者说是我们再回顾一下数仓的定义,面向主题的(Subject Oriented)、集成的(Integrate)、相对稳定的(Non-Volatile)、反映历史变化(Time ...
  • 本文主要整理对话生成领域相关的数据集,尤其是开放域对话生成。当前可以把开放域对话生成任务划分为:传统开放域对话生成、多模态对话生成、情感对话生成、个性化对话生成、策略控制对话生成等。笔者的划分是根据...
  • 机器学习数据集

    千次阅读 2019-01-23 16:09:13
    文章目录1....波士顿房价数据集12.1单变量时间序列数据集洗发水销售数据集(Shampoo Sales Dataset)日较低温度数据集(Minimum Daily Temperatures Dataset)每月太阳黑子数数据集(Monthly Suns...
  • 数据分析实战-PUBG数据集EDA

    千次阅读 2019-05-18 21:40:23
    PUBG数据集EDA
  • 上篇文章所指定的是对一个不包含动态背景的监控视频进行前景提取,用基于改进的五帧帧差和混合高斯模型相融合的前景提取算法是可以很好实现前景提取的。但本文中要求在包含动态背景的监控视频提取前景目标,虽然上篇...
  • 1.1、数据集信息 1.2、可解决的问题 二、设计目的 三、实验需要的平台 四、基本原理分析 4.1、逻辑回归算法基本原理 4.2、支持向量机算法的基本原理 五、实验过程阐述及实验结论 5.1、实现逻辑回归算法过程...
  • 高斯混合背景建模

    千次阅读 2017-07-06 15:03:50
    1、高斯混合背景建模原理混合高斯背景建模是基于像素样本统计信息的背景表示方法,利用像素在较长时间内大量样本值的概率密度等统计信息(如模式数量、每个模式的均值和标准差)表示背景,然后使用统计差分(如3σ原则)...
  • 实验数据集:本文采用的数据集是由kaggle上面的diamonds数据集,该数据集收集了约54000颗钻石的价格和质量的信息。每条记录由十个变量构成,其中有三个是名义变量,分别描述钻石的切工,颜色和净度;carat:克拉,...
  • 运动目标检测_混合高斯背景建模

    万次阅读 多人点赞 2017-03-09 22:09:27
    1.混合搞死背景建模理论 混合高斯背景建模是基于像素样本统计信息的背景表示方法,利用像素在较长时间内大量样本值的概率密度等统计信息(如模式数量、每个模式的均值和标准差)表示背景,然后使用统计差分(如3σ原则...
  • 网络数据集

    千次阅读 2019-01-25 23:46:33
    1.什么是网络数据集? 网络数据集(Network Dataset)是传输网络所用的数据,传输网络分析常用于道路、地铁等交通网络分析,进行路径、服务范围与资源分配等分析。在传输网络分析中,允许在网络边上双向行驶,网络中...
  • Stanford cars-数据集

    千次阅读 2020-08-20 11:47:00
    数据集包含 196 种汽车类别的图像数据集,共有 16,185 张图像,分别为 8,144 张训练图像和 8,041 张测试图像,每个 类别的图像类型比例基本上都是五五开。本数据集的类别主要基于汽车的牌子、车型以及年份进行划分...
  • 混合高斯背景建模原理及实现

    万次阅读 多人点赞 2014-05-19 19:23:11
    本次介绍混合高斯背景建模算法,还是老样子,首先介绍理论部分,然后给出代码,最后实验贴图。 一、理论 混合高斯背景建模是基于像素样本统计信息的背景表示方法,利用像素在较长时间内大量样本值的概率密度...
  • 常用公共数据集

    万次阅读 多人点赞 2018-01-05 19:21:18
    行动数据库属性识别自主驾驶生物/医药相机校准脸和眼/虹膜数据库指纹一般图像一般RGBD和深度数据集一般视频手,掌握,手动和手势数据库图像,视频和形状数据库检索 对象数据库人(静),人体姿势人员检测和跟踪...
  • 一文读懂数据挖掘建模预测

    千次阅读 多人点赞 2022-06-12 21:47:36
    数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中,提取隐含在其中的、人们事先不知道的、但又是潜在有用的信息和知识的过程。听起来比较抽象,我们举个例子。傍晚小街路面上沁出微雨后的...
  • 我们评估了我们的方法和以前的最新方法在Pascal-VOC 2012和ADE20K数据集上的性能。 要求 该存储库使用以下库: 巨蟒(3.6) 火炬(1.2) 火炬视觉(0.4.0) tensorboardX(1.8) 顶点(0.1) matplotlib...
  • 各种数据集汇总——转载而来

    千次阅读 2019-03-21 09:55:26
    目前系统整理了一些网上开放的免费科研数据集,以下是分类列表以及下载地址,供高校和科研机构免费下载和使用。 金融 美国劳工部统计局官方发布数据 上证A股日线数据,1999.12.09 至 2016.06.08,前复权,1095支...
  • [深度数据]·深度学习数据集大全

    千次阅读 2019-05-29 15:35:13
    [深度数据]·深度学习数据集大全 数据来自 skymind.ai 整理 最近新增数据集 开源生物识别数据:http://openbiometrics.org/ Google Audioset:扩展了 632 个音频分类样本,并从 YouTube 视频中提取了 2,084,...
  • 数据建模 ? 数据管控 3. Oracle 数据仓库产品介绍 什么是数据仓库 广州市品高软件开发有限公司 3 一个 面向主题 的 集成 的 非易失性 的 随时间 变化 的数据的集合以用于支持管理层决策过 程 数据仓库的特点 广州市...
  • 支持向量机-wine数据集

    千次阅读 2021-12-06 21:23:02
    支持向量机是监督式学习算法,主要应用于分类,它的目的是寻找一个超平面对样本进行分割,分割的原则是间隔最大化。 (1)当训练数据线性可分时,通过硬间隔最大化,学习一个线性分类...1、导入数据集(加载scikit-lea

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 31,765
精华内容 12,706
关键字:

背景建模数据集