精华内容
下载资源
问答
  • 计算机视觉目标跟踪
    千次阅读
    2022-01-05 12:17:44

    OTB上常用的3个:TRE、SRE、OPE
    OPE: 单次评估精度,TRE运行一次的结果。
    TRE: 将序列划分为20个片段,每次是从不同的时间初始化,然后去跟踪目标。
    SRE: 从12个方向对第一帧的目标位置设置10%的偏移量,然后跟踪目标,判断目标跟踪精度。

    通用指标
    OP(%): overlap precision 重叠率
    重叠率 = 重叠区域面积/(预测矩形的面积+真实矩形的面积-重叠区域的面积)
    CLE(pixels): center location error 中心位置误差
    中心位置误差 = 真实中心和预测中心的欧式距离
    DP:distance precision 精确度
    AUC: area under curve 成功率z图的曲线下面积

    VOT当中一些指标
    Robustness:数值越大,稳定性越差。VOT评价指标综述

    参考链接:VOT评价指标综述

    更多相关内容
  • 计算机视觉目标跟踪的可信估计.pdf
  • 非高斯噪声背景下计算机视觉目标跟踪方法.pdf
  • 一种基于鲁棒性的计算机视觉目标跟踪算法.pdf
  • 目标跟踪计算机视觉领域中研究的热点之一,分为单目标跟踪与多目标跟踪。前者跟踪视频画面中的单个目标,后者则同时跟踪视频画面中的多个目标,得到这些目标的运动轨迹。
  • 目标跟踪计算机视觉领域中研究的热点之一,分为单目标跟踪与多目标跟踪。前者跟踪视频画面中的单个目标,后者则同时跟踪视频画面中的多个目标,得到这些目标的运动轨迹。基于视觉的多目标跟踪在近年来越来越多地...
  • 机器视觉——目标跟踪

    千次阅读 2022-03-02 21:39:28
    随着研究人员不断地深入研究,视觉目标跟踪在近十几年里有了突破性的进展,使得视觉跟踪算法不仅仅局限于传统的机器学习方法,更是结合了近些年人工智能热潮—深度学习(神经网络)和相关滤波器等方法,并取得了鲁棒...

    摘    要

     视觉跟踪技术是计算机视觉领域(人工智能分支)的一个重要课题,有着重要的研究意义;且在军事制导、视频监控、机器人视觉导航、人机交互、以及医疗诊断等许多方面有着广泛的应用前景。随着研究人员不断地深入研究,视觉目标跟踪在近十几年里有了突破性的进展,使得视觉跟踪算法不仅仅局限于传统的机器学习方法,更是结合了近些年人工智能热潮—深度学习(神经网络)和相关滤波器等方法,并取得了鲁棒(robust)、精确、稳定的结果。

    视觉目标跟踪是指对图像序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对运动目标的行为理解,以完成更高一级的检测任务。根据跟踪目标的数量可以将跟踪算法分为单目标跟踪与多目标跟踪。相比单目标跟踪而言,多目标跟踪问题更加复杂和困难。多目标跟踪问题需要考虑视频序列中多个独立目标的位置、大小等数据,多个目标各自外观的变化、不同的运动方式、动态光照的影响以及多个目标之间相互遮挡、合并与分离等情况均是多目标跟踪问题中的难点。

    本次内容主要研究的内容基于目标跟踪下的:Opencv-python七种自带的跟踪算法以及:背景减除法、帧差法、混合高斯模型、卡尔曼滤波、粒子滤波、

    光流估计发、sift。

    绪论

    目标跟踪划分为五项主要的研究内容:

    运动模型(Motion Model):如何生成众多有效的候选框,生成候选样本的速度与质量直接决定了跟踪系统表现的优劣。常用的有两种方法:粒子滤波(Particle Filter)和滑动窗口(Sliding Window)。粒子滤波是一种序贯贝叶斯推断方法,通过递归的方式推断目标的隐含状态。而滑动窗口是一种穷举搜索方法,它列出目标附近的所有可能的样本作为候选样本。

    特征提取(Feature Extractor): 利用何种特征表示目标,鉴别性的特征表示是目标跟踪的关键之一。根据目标的情况选择不同的特征表示,常用的特征被分为两种类型:手工设计的特征(Hand-crafted feature)和深度特征(Deep feature)。常用的手工设计的特征有灰度特征(Gray),方向梯度直方图(HOG),哈尔特征(Haar-like),尺度不变特征(SIFT)等。与人为设计的特征不同,深度特征是通过大量的训练样本学习出来的特征,它比手工设计的特征更具有鉴别性。因此,利用深度特征的跟踪方法通常很轻松就能获得一个不错的效果。

    观测模型(Observation Model):为候选框打分(置信分数),大多数的跟踪方法主要集中在这一块的设计上。为候选框打分根据不同的思路,观测模型可分为两类:生成式模型(Generative Model)和判别式模型(Discriminative Model). 生成式模型通常寻找与目标模板最相似的候选作为跟踪结果,这一过程可以视为模板匹配。常用的理论方法包括:子空间,稀疏表示,字典学习等。而判别式模型通过训练一个分类器去区分目标与背景,选择置信度最高的候选样本作为预测结果。判别式方法已经成为目标跟踪中的主流方法,因为有大量的机器学习方法可以利用。常用的理论方法包括:逻辑回归,岭回归,支持向量机,多示例学习,相关滤波等。

    模型更新(Model Update): 更新观测模型使其适应目标的变化,防止跟踪过程发生漂移。模型更新没有一个统一的标准,通常认为目标的表观连续变化,所以常常会每一帧都更新一次模型。但也有人认为目标过去的表观对跟踪很重要,连续更新可能会丢失过去的表观信息,引入过多的噪音,因此利用长短期更新相结合的方式来解决这一问题。

    集成方法(Ensemble Method): 集成方法有利于提高模型的预测精度,也常常被视为一种提高跟踪准确率的有效手段。可以把集成方法笼统的划分为两类:在多个预测结果中选一个最好的,或是利用所有的预测加权平均。

    在本次研究中使用环境如下:

    pycharm64

    nimpy-1.19.0rc1

    opencv-contrib-python-4.3.0.36

    matplotlib-3.1.3

    硬件环境:

    CPU:I7-7700HQ

    GPU:GTX1050Ti

    视频数据:

    来源:网站下载

    图像大小:768*576

    时长:00:01:19

    帧速率:10.00帧/秒

    第2章 背景建模

    2.1  帧差法

    由于场景中的目标在运动,目标的影像在不同图像帧中的位置不同。该类算法对时间上连续的两帧图像进行差分运算,不同帧对应的像素点相减,判断灰度差的绝对值,当绝对值超过一定阈值时,即可判断为运动目标,从而实现目标的检测功能。

     

    帧差法非常简单,但是会引入噪音和空洞问题。

    2.2 混合高斯模型

    2.2.1 混合高斯模型的建立

    在进行前景检测前,先对背景进行训练,对图像中每个背景采用一个混合高斯模型进行模拟,每个背景的混合高斯的个数可以自适应。然后在测试阶段,对新来的像素进行GMM匹配,如果该像素值能够匹配其中一个高斯,则认为是背景,否则认为是前景。由于整个过程GMM模型在不断更新学习中,所以对动态背景有一定的鲁棒性。最后通过对一个有树枝摇摆的动态背景进行前景检测,取得了较好的效果。背景的实际分布应当是多个高斯分布混合在一起,每个高斯模型也可以带有权重。

    混合高斯模型学习方法

    1.首先初始化每个高斯模型矩阵参数。

    2.取视频中T帧数据图像用来训练高斯混合模型。来了第一个像素之后用它来当做第一个高斯分布。

    3.当后面来的像素值时,与前面已有的高斯的均值比较,如果该像素点的值与其模型均值差在3倍的方差内,则属于该分布,并对其进行参数更新。

    4.如果下一次来的像素不满足当前高斯分布,用它来创建一个新的高斯分布。

    混合高斯模型测试方法

    在测试阶段,对新来像素点的值与混合高斯模型中的每一个均值进行比较,如果其差值在2倍的方差之间的话,则认为是背景,否则认为是前景。将前景赋值为255,背景赋值为0。这样就形成了一副前景二值图。

    代码:

    第一步:使用cv2.VideoCapture() 构造读取模型

    第二步:使用cv2.getStructureElement(cv2.MORPH_ELLIPSE, (3, 3)) # 构造形态学使用的kernel,即np.ones((3, 3), np.uint8)

    第三步:构造cv2.createBackgroundSubtractorMOG2() 实例化混合高斯模型

    第四步:cap.read()从视频中读取文件,并使用model.apply(frame) 使用上混合高斯模型

    第五步:使用cv2.morpholyEx(image, cv2.MORPH_OPEN, kernel) 使用开运算进行噪音的去除

    第六步:cv2.findCountours找出图片中的轮廓,对其进行循环

    第七步:对于周长大于188的轮廓,使用cv2.boundingRect计算外接矩阵,使用cv2.rectangle画出外接矩阵,作为人

    第八步:使用cv2.imshow()展示图片,使用cv2.waitkey(150) & 0xff == 27来延长放映的时间

    2.2.2 结果展示

     

    2.3 背景减除法

    2.3.1 基本原理

    背景减除法是一种有效的运动对象检测算法,基本思想是利用背景的参数模型来近似背景图像的像素值,将当前帧与背景图像进行差分比较实现对运动区域的检测,其中区别较大的像素区域被认为是运动区域,而区别较小的像素区域被认为是背景区域。背景减除法必须要有背景图像,并且背景图像必须是随着光照或外部环境的变化而实时更新的,因此背景减除法的关键是背景建模及其更新。针对如何建立对于不同场景的动态变化均具有自适应性的背景模型,减少动态场景变化对运动分割的影响,研究人员已提出了许多背景建模算法,但总的来讲可以概括为非回归递推和回归递推两类。非回归背景建模算法是动态的利用从某一时刻开始到当前一段时间内存储的新近观测数据作为样本来进行背景建模。

    2.3.2 结果展示

     

    光流估计

    3.1 基本原理

    光流是空间运动物体在观测成像平面上的像素运动的“瞬时速度”,根据各个像素点的速度矢量特征,可以对图像进行动态分析,例如目标跟踪。

    亮度恒定:同一点随着时间的变化,其亮度不会发生改变。

    小运动:随着时间的变化不会引起位置的剧烈变化,只有小运动情况下才能用前后帧之间单位位置变化引起的灰度变化去近似灰度对位置的偏导数。

    空间一致:一个场景上邻近的点投影到图像上也是邻近点,且邻近点速度一致。因为光流法基本方程约束只有一个,而要求x,y方向的速度,有两个未知变量。所以需要连立n多个方程求解。

     

    cv2.calcOpticalFlowPyrLK():

    参数:

    prevImage 前一帧图像

    nextImage 当前帧图像

    prevPts 待跟踪的特征点向量

    winSize 搜索窗口的大小

    maxLevel 最大的金字塔层数

    返回:

    nextPts 输出跟踪特征点向量

    status 特征点是否找到,找到的状态为1,未找到的状态为0

    3.2 结果展示

     

    光流法的主要任务就是计算光流场,即在适当的平滑性约束条件下,根据图像序列的时空梯度估算运动场,通过分析运动场的变化对运动目标和场景进行检测与分割。通常有基于全局光流场和特征点光流场两种方法。最经典的全局光流场计算方法是L-K(Lueas&Kanada)法和H-S(Hom&Schunck)法,得到全局光流场后通过比较运动目标与背景之间的运动差异对运动目标进行光流分割,缺点是计算量大。特征点光流法通过特征匹配求特征点处的流速,具有计算量小、快速灵活的特点,但稀疏的光流场很难精确地提取运动目标的形状。总的来说,光流法不需要预先知道场景的任何信息,就能够检测到运动对象,可处理背景运动的情况,但噪声、多光源、阴影和遮挡等因素会对光流场分布的计算结果造成严重影响;而且光流法计算复杂,很难实现实时处理。

    卡尔曼滤波

    4.1 基本原理

    卡尔曼滤波的核心就是:预测+测量反馈。

    卡尔曼滤波的前提:状态在定义域内具有正态高斯分布规律。

    卡尔曼滤波——利用线性系统的状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。由于观测数据中包括系统中的噪声和干扰的影响,所以最优估计可看着是滤波的过程。

    卡尔曼滤波主要分为两个过程:

    1、时间更新,先验估计。2、测量更新,后验估计。而当前卡尔曼过程的后验估计不仅可以作为本次的最终结果,还能作为下一次的先验估计的初始值。

    预测过程是利用系统模型(状态方程)预测状态的先验概率密度,也就是通过已有的先验知识对未来的状态进行猜测更新过程则利用最新的测量值对先验概率密度进行修正,得到后验概率密度,对之前猜测进行修正。

     

     

    我们将这五个公式分成预测组和更新组。预测组总是根据前一个状态来估计当前状态。更新组则根据观测信息来对预测信息进行修正,以期达到最优估计之目的。

    公式和opencv对应关系的讲解:

    首先对于离散控制过程的系统,其系统状态和系统测量值可进行以下表示:

    X(k): k时刻系统状态

    A:   状态转移矩阵,对应opencv里kalman滤波器的transitionMatrix矩阵(关于opencv kalman滤波器详细定义会在2中给出)

    B:   控制输入矩阵,对应opencv里kalman滤波器的controlMatrix矩阵

    U(k):k时刻对系统的控制量

    Z(k): k时刻的测量值

    H:   系统测量矩阵,对应opencv里kalman滤波器的measurementMatrix矩阵

    W(k):系统过程噪声,为高斯白噪声,协方差为Q,对应opencv里的kalman滤波器的processNoiseCov矩阵

    V(k): 测量噪声,也为高斯白噪声,协方差为R,对应opencv里的kalman滤波器的measurementNoiseCov矩阵

     第一部分:预测值的计算

    式(1):计算基于k-1时刻状态对k时刻系统状态的预测值

    X(k|k-1):    基于k-1时刻状态对k时刻状态的预测值,对应opencv里kalman滤波器的predict()输出,即statePre矩阵

    X(k-1|k-1):k-1时刻状态的最优结果,对应opencv里kalman滤波器的上一次状态的statePost矩阵

    U(k):    k时刻的系统控制量,无则为0

    A:  状态转移矩阵,对应opencv里kalman滤波器的transitionMatrix矩阵

    B:  控制输入矩阵,对应opencv里kalman滤波器的controlMatrix矩阵

    式(2):计算X(k|k-1)对应的协方差的预测值

    P(k|k-1):  基于k-1时刻的协方差计算k时刻协方差的预测值,对应opencv里kalman滤波器的errorCovPre矩阵

    P(k-1|k-1):k-1时刻协方差的最优结果,对应opencv里kalman滤波器的上一次状态的errorCovPost矩阵

    Q: 系统过程噪声协方差,对应opencv里kalman滤波器的processNoiseCov矩阵

    第二部分:

    式(3):增益的计算

    Kg(k):k时刻的kalman增益,为估计量的方差占总方差(估计量方差和测量方差)的比重,对应opencv里kalman滤波器的gain矩

    H: 系统测量矩阵,对应opencv里kalman滤波器的measurementMatrix矩阵

    R:测量噪声协方差,对应opencv里的kalman滤波器的measurementNoiseCov矩阵

    第三部分:

    式(4)--(5):k时刻的更新

    式(4):计算k时刻系统状态最优值

    X(k|k):k时刻系统状态的最优结果,对应opencv里kalman滤波器的k时刻状态的statePost矩阵

    Z(k):k时刻系统测量值

    式(5):计算k时刻系统最优结果对应的协方差

    P(k|k):k时刻系统最优结果对应的协方差,对应opencv里kalman滤波器的errorCovPost矩阵

    结果展示

     

    SIFT算法

    5.1 概述

    SIFT算法实现物体识别主要有三大工序:

    1.提取关键点

    2.对关键点附加详细的信息(特征向量)

    3.通过两方特征点(附带上特征向量的关键点)的两两比较找出相互匹配的若干对特征点

    特征向量的生成算法总共包括四步:

    1.检测尺度空间极值点,初步确定关键点位置和所在尺度。

    2.精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性、提高抗噪声能力。

    3.为每个关键点指定方向参数,使算子具备旋转不变性。

    4.关键点描述子的生成,即生成SIFT特征向量。

    5.2 具体说明

    1.构建高斯模板

    2.高斯金字塔

    设输入图像经过s次卷积后可以得到高斯卷积函数为G(x,y,2σ) 的输出图像,所有从σ到2σ的图像构成一个组octave,每个octave 固定有s个平面。每一层Ip= G(x,y,ksσ)*I , s=1,2,…,p. 而kp=2在同一阶中相邻两层的尺度因子比例系数是k,则第1阶第2层的尺度因子是kσ, 然后其它层以此类推;

    第2阶的第1层由第一阶的中间层尺度图像进行降采样获得, 其尺度因子是k2σ,然后第2阶的第2层的尺度因子是第1层的k倍即k3σ;

    第3阶的第1层由第2阶的中间层尺度图像进行降采样获得。其它阶的构成以此类推。

    降采样时,高斯金字塔上一组图像的初始图像(底层图像)是由前一组图像的倒数第三张图像隔点采样得到的。

    3.构建高斯差分金字塔(通过高斯金字塔中相邻尺度空间函数相减获得)

    4.空间极值点检测

    在DOG尺度空间金字塔中,为了检测到DOG空间的最大值和最小值, DOG尺度空间中中间层(最底层和最顶层除外)的每个像素点需要跟同一层的相邻8个像素点以及它上一层和下一层的9个相邻像素点总共26个相邻像素点进行比较,以确保在尺度空间和二维图像空间都检测到局部极值。标记为叉号的像素若比相邻26个像素的DOG值都大或都小,则该点将作为一个局部极值点,记下它的位置和对应尺度。

    5.关键点定位

    检测到的极值点是离散空间的极值点,

    通过拟合三维二次函数来精确确定关键点的位置和尺度;

    由于DOG算子会产生较强的边缘响应还需去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性、提高抗噪声能力。

    关键点尺度: σ = σ0 * pow( 2.0, s/S)

    式中: σ为关键点的尺度,

    s 为关键点在高斯差分金字塔中所处于的层数

    S 为每组的层数

    6.关键点方向分配

    为了使描述符具有旋转不变性,需要利用图像的局部特征为给每一个关键点分配一个基准方向。使用图像梯度的方法求取局部结构的稳定方向。对于在DOG金字塔中检测出的关键点,采集其所在高斯金字塔图像3σ邻域窗口内像素的梯度和方向分布特征。

    7.关键点特征描述

    SIFT描述子是关键点邻域高斯图像梯度统计结果的表示。通过对关键点周围图像区域分块,计算块内梯度直方图,生成具有独特性的向量,这个向量是该区域图像信息的一种抽象,具有唯一性。

    128维关键点描述子生成步骤

    ① 确定计算描述子的图像区域,计算关键点主方向

    描述子梯度方向直方图由关键点所在尺度的模糊图像计算产生。

    Lowe实验结果表明:描述子采用4×4×8=128维向量表征,综合效果最优(不变性与独特性)。

     种子点由8×8单元组成。每一个小格都代表了特征点邻域所在的尺度空间的一个像素,箭头方向代表了像素梯度方向,箭头长度代表该像素的幅值

    在4×4的窗口内计算8个方向的梯度方向直方图。绘制每个梯度方向的累加可形成一个种子点,一个关键点由4个种子点的信息组成。

    计算关键点周围的16*16的窗口中每一个像素的梯度,描述子使用在关键点尺度空间内4*4的窗口中计算8个方向的梯度信息,共4*4*8=128维向量表征。

    8.特征向量匹配

    首先进行相似性度量。

    所谓相似性度量是指用什么来确定待匹配特征之间的相似性,它通常是某种代价函数或者是距离函数的形式,一般采用各种距离函数作为特征的相似性度量,如欧氏距离、马氏距离等。

    其次消除错配。

    无论采用何种特征描述符和相似性判定度量,错配难以避免。这一步主要做的就是根据几何或光度的约束信息去除候选匹配点中的错配。一般利用RANSAC随机抽样一致性算法去除错误的匹配点对,得到最佳匹配点。通过对最佳匹配点的特征向量进行匹配,最后得到图像特征向量的匹配。

    9.关键点匹配

    分别对模板图(参考图,reference image)和实时图(观测图,observation image)建立关键点描述子集合。目标的识别是通过两点集内关键点描述子的比对来完成。具有128维的关键点描述子的相似性度量采用欧式距离。

    5.3 结果展示

     

    粒子滤波

    6.1 基本理论

    粒子滤波通过非参数化的蒙特卡洛 (Monte Carlo) 模拟方法来实现递推贝叶斯滤波,适用 于任何能用状态空间模型描述的非线性系统,精度可以逼近最优估计。粒子滤波器具有简单、易于实现等特点,它为分析非线性动态系统提供了一种有效的解决方法,从而引起 目标跟踪、信号处理以及自动控制等领域的广泛关注。首先概述用于求解目标状态后验概率的贝叶斯滤波理论 随后介绍具有普遍适用性的粒子滤波器,最后针对当前粒子滤波器存在的粒子 多样性丧失问题,提出了一种量子进化粒子滤波算法。

     

    标准的粒子滤波算法流程为:

    蒙特卡洛方法一般可以归纳为以下三个步骤:

    构造概率模型。对于本身具有随机性质的问题,主要工作是正确地描述和模拟这个概 率过程。对于确定性问题,比如计算定积分、求解线性方程组、偏微分方程等问题,采 用蒙特卡洛方法求解需要事先构造一个人为的概率过程,将它的某些参量视为问题的解。

    从指定概率分布中采样。产生服从己知概率分布的随机变量是实现蒙特卡洛方法模拟 试验的关键步骤。

    建立各种估计量的估计。一般说来,构造出概率模型并能从中抽样后,便可进行现模 拟试验。随后,就要确定一个随机变量,将其作为待求解问题的解进行估计。

    6.2 结果展示

     

    opencv自带算法

    7.1 算法

            tracker = cv2.TrackerBoosting_create()

            tracker = cv2.TrackerMIL_create()

            tracker = cv2.TrackerKCF_create()

            tracker = cv2.TrackerTLD_create()

            tracker = cv2.TrackerMedianFlow_create()

            tracker = cv2.TrackerCSRT_create()

            tracker = cv2.TrackerMOSSE_create()

    Boosting是一种框架算法,主要是通过对样本集的操作获得样本子集,然后用弱分类算法在样本子集上训练生成一系列的基分类器。他可以用来提高其他弱分类算法的识别率,也就是将其他的弱分类算法作为基分类算法放于Boosting 框架中,通过Boosting框架对训练样本集的操作,得到不同的训练样本子集,用该样本子集去训练生成基分类器;每得到一个样本集就用该基分类算法在该样本集上产生一个基分类器,这样在给定训练轮数 n 后,就可产生 n 个基分类器,然后Boosting框架算法将这 n个基分类器进行加权融合,产生一个最后的结果分类器,在这 n个基分类器中,每个单个的分类器的识别率不一定很高,但他们联合后的结果有很高的识别率,这样便提高了该弱分类算法的识别率。

    MIL算法基于boosting的思想,从M个特征对应的M个弱分类器中选择出K个弱分类器(对应K个特征,组成新的外观模型),然后组合成强分类器,并告诉我们在这个正样本袋里哪一个实例才是最正确的。

    在KCF的算法中,训练样本的生成都是基于循环矩阵形式来构建的,其中基样本为正样本,其他都是虚构出的负样本,这样的样本集具有很好的特性,可以很方便的利用快速傅里叶变换和傅里叶对角化的性质来进行计算,而不需要得知负样本的具体形式,算法将有关负样本的计算都转换到了频域进行求解。这样,采用了循环矩阵的性质对输入图像的搜索区域进行密集采样之后,使得进行跟踪器训练时缺少样本的问题迎刃而解。因此,整个KCF算法对跟踪器进行训练的目的就是利用生成的这些样本,生成一个滤波器,使得其作用于这些样本时会生成我们期望的分布形式

    TLD(Tracking-Learning-Detection)是英国萨里大学的一个捷克籍博士生Zdenek Kalal在其攻读博士学位期间提出的一种新的单目标长时间(long term tracking)跟踪算法。该算法与传统跟踪算法的显著区别在于将传统的跟踪算法和传统的检测算法相结合来解决被跟踪目标在被跟踪过程中发生的形变、部分遮挡等问题。同时,通过一种改进的在线学习机制不断更新跟踪模块的“显著特征点”和检测模块的目标模型及相关参数,从而使得跟踪效果更加稳定、鲁棒、可靠。简单来说,TLD算法由三部分组成:跟踪模块、检测模块、学习模块

    MedianFlow算法属于TLD跟踪算法中的Tracking部分。。它基于LK光流跟踪算法,并使用FB(正向/反向评估点追踪质量的一种方法)、NCC交叉验证进行反馈。

    分类与回归树(classification and regression tree, CART)模型是应用广泛的决策树学习方法,同样由特征选择、树的生成和剪枝组成,既可以用于分类也可以用于回归。CART假设决策树是二叉树,内部结点特征的取值为“是”和“否”,左分支是取值为“是”的分支,右分支是取值为“否”的分支

    MOSSE算法的创新的在于,它是第一篇将相关滤波引入到目标跟踪的领域的论文。其思想是构造一个滤波模板 h,使用该模板与图像序列帧 f(f指的是输入图像中框定的目标区域,也称为目标窗口,并非整个图像帧)做卷积运算,根据得到的响应输出g来确定目标在新的一帧图像中的位置。

    7.2 结果展示

    按照上述顺序

     

     

     

     

     

     

     

    7.3 结果对比

    BOOSTING:算法原理类似于Haar cascades (AdaBoost),是一种很老的算法。这个算法速度慢并且不是很准。

    MIL:比BOOSTING准一点。

    KCF:速度比BOOSTING和MIL更快,与BOOSTING和MIL一样不能很好地处理遮挡问题。

    CSRT:比KCF更准一些,但是速度比KCF稍慢。

    MedianFlow:对于快速移动的目标和外形变化迅速的目标效果不好。

    TLD:会产生较多的false-positives。

    MOSSE:算法速度非常快,但是准确率比不上KCF和CSRT。在一些追求算法速度的场合很适用。

     

     

     

    展开全文
  • 计算机视觉目标跟踪

    千次阅读 2019-01-07 15:27:37
    一、单目标跟踪 基本流程: 对初始图像中选定的box进行描述,在下一帧图像中产生多个候选box(运动模型),获取这些box的描述,评估box的得分(生成式、判别式方法、knn)来确定在下一帧中box的位置。 特征提取...

    跟踪定义:
    在一系列的图像中,标注出关于运动物体的可能位置。

    一、单目标跟踪

    产生候选box方法:
    滑动窗口(穷举法)即目标附近所有可能的样本作为候选样本
    由于两帧图像之间目标的位移不会发生明显的变化,因而,可以估计在下一帧物体可能出现的位置,在附近产生多个候选box。
    粒子滤波(Particle Filter)

    如何为候选样本评分:
    三种方式!
    1.生成式:模板匹配(需要估计运动模型的),得到patch描述(可以是灰度像素值,梯度方向直方图,HOG),估计下一帧图像可能出现的位置,得到一系列的patch并获取其描述,计算相似度。

    2.判别式(针对前景和背景训练分类器,把跟踪问题视为分类问题,需要计算特征和分类器):

    在线学习
    仅使用一个图像块来训练分类器(输入正样本和负样本),相对于离线学习来说,仅使用少量的训练集,即先前帧的box。

    多示例学习(Multiple Instance Learning)
    构造正样本包!即用确定的目标box和在其周围像素进行采样得到的patch来形成包(由于包含确定目标的box,肯定是正样本包啦),通过正样本包和负样本来训练分类器。通过构造样本包可以有效地防止形变、遮挡、位置偏移的问题

    在这里插入图片描述
    3.Bag of Patch(使用KNN获取目标位置,不用训练分类器,但依旧使用了前一个帧中的正负样本)
    对于预测图像,获取多个patch(根据运动模型在预测位置周围获取),同前序帧的patch和label做KNN,便可得到预测对象出现的位置。
    在这里插入图片描述

    更新分类器:
    仅使用前一帧的跟踪结果来训练分类器有可能跟丢了,提出了anchor方法,使用第一帧目标和当前帧的目标来训练分类器。
    在这里插入图片描述

    二、多目标跟踪
    核心问题:
     Data association
    Assignment problems
    Discrete combinatorial optimization

    具体来说,有两种方法:
    ABT(association based track)和CFT(category free track)
    在这里插入图片描述
    ABT依赖的是预训练好的detector,用在知道对象是什么(且对象类型属于同一种)的跟踪上,在之后的帧中进入新的物体,也能跟踪。而且对于每个跟踪的物体会形成一个轨迹。
    CFT需要在第一帧进行标注,在后续帧上找到一个Object,是单目标的跟踪的扩充,相比单目标跟踪会考虑到多个目标的关系,如果在之后帧加入物体,无法追踪。
    关于两种方法的比较:
    在这里插入图片描述当前帧检测的对象o4对应于上一帧的哪个对象呢?从下图中方形和三角形的得分差不多,该如何匹配?(每个对象在不同的帧位置形成一个track)
    在这里插入图片描述
    可以使用贪心算法分配分类器,但最好的是Hungarian算法,能获得获得全局最优。
    贪心算法在这里插入图片描述

    展开全文
  • 该文件用于在matlab环境中直接使用OpenCV库的函数,方便使用matlab的研究者在开展视觉目标检测、视觉目标跟踪、视觉智能监控,以及其它计算机视觉应用等的工作中调用OpenCV提供的函数。在使用时,只需要把该文件放于...
  • 目标跟踪实验报告通过python 语言编程设计跟踪算法,实现目标行人的选择,跟踪。促进学生理解并掌握相关跟踪算法,培养学生的编程能力。

    一、实验目的

    通过python 语言编程设计跟踪算法,实现目标行人的选择,跟踪。促进学生理解并掌握相关跟踪算法,培养学生的编程能力。

    二、实验硬、软件环境

    PC、windows10系统,Visual Studio Code编辑器,opencv视觉库,numpy库, matplolib库等。

    三、实验内容及步骤

    (一)实验内容 

    编程实现目标行人的跟踪。

    • 实验过程

    1. 读取视频或打开摄像头进行实时录像。

    tracker_types = ['BOOSTING', 'MIL','KCF', 'TLD', 'MEDIANFLOW', 'MOSSE', 'CSRT']
    
        tracker_type = tracker_types[6]
    
        if tracker_type == 'BOOSTING':
    
            tracker = cv2.legacy.TrackerBoosting_create()
    
        if tracker_type == 'MIL':
    
            tracker = cv2.TrackerMIL_create()
    
        if tracker_type == 'KCF':
    
            tracker = cv2.TrackerKCF_create()
    
        if tracker_type == 'TLD':
    
            tracker = cv2.legacy.TrackerTLD_create()
    
        if tracker_type == 'MEDIANFLOW':
    
            tracker = cv2.legacy.TrackerMedianFlow_create()
    
        if tracker_type == "CSRT":
    
            tracker = cv2.legacy.TrackerCSRT_create()
    
        if tracker_type == "MOSSE":
    
            tracker = cv2.legacy.TrackerMOSSE_create()
    
    video = cv2.VideoCapture("D:/XiaoStudy/JiSuanJiShiJue/jisuanjishijue/shiyan3/vtest.mp4")
    
        if not video.isOpened():
    
            print("Could not open video")
    
            sys.exit()
    
        ok, frame = video.read()
    
        if not ok:
    
            print('Cannot read video file')
    
            sys.exit()

    1. 人工选择跟踪目标

    bbox = (287, 23, 86, 320)

        bbox = cv2.selectROI(frame, False)

        ok = tracker.init(frame, bbox)

    目标行人选择算法,即人工选择方框的方法。

    3. 选择合适的跟踪算法对目标进行跟踪。

    while True:

            # Read a new frame

            ok, frame = video.read()

            if not ok:

                break

            timer = cv2.getTickCount()

            ok, bbox = tracker.update(frame)

            fps = cv2.getTickFrequency() / (cv2.getTickCount() - timer);

            if ok:

                p1 = (int(bbox[0]), int(bbox[1]))

                p2 = (int(bbox[0] + bbox[2]), int(bbox[1] + bbox[3]))

                cv2.rectangle(frame, p1, p2, (255,0,0), 2, 1)

            else :

                cv2.putText(frame, "Tracking failure detected", (100,80), cv2.FONT_HERSHEY_SIMPLEX, 0.75,(0,0,255),2)

            cv2.putText(frame, tracker_type + " Tracker", (100,20), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50),2);

            cv2.putText(frame, "FPS : " + str(int(fps)), (100,50), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50), 2);

    4. 记录目标行人跟踪过程中的跟踪目标图像。

    记录的图像,行人遮挡时的图像,进行对比分析

    附(记得cmd安装pip install -i https://pypi.tuna.tsinghua.edu.cn/simple opencv-contrib-python)

    源代码(记得该视频路径):

    import cv2
    import sys
    import argparse
     
    if __name__ == '__main__' :
     
        # Set up tracker.
        # Instead of MIL, you can also use
     
        tracker_types = ['BOOSTING', 'MIL','KCF', 'TLD', 'MEDIANFLOW', 'MOSSE', 'CSRT']
        tracker_type = tracker_types[6]
     
     ####OpenCv的contrib modules在4.5.1之后不再支持 部分跟踪方法
     # #迁移到cv2.legacy.Multitracker_create。加上“.legacy”即可
        if tracker_type == 'BOOSTING':
            tracker = cv2.legacy.TrackerBoosting_create()
        if tracker_type == 'MIL':
            tracker = cv2.TrackerMIL_create()
        if tracker_type == 'KCF':
            tracker = cv2.TrackerKCF_create()
        if tracker_type == 'TLD':
            tracker = cv2.legacy.TrackerTLD_create()
        if tracker_type == 'MEDIANFLOW':
            tracker = cv2.legacy.TrackerMedianFlow_create()
        if tracker_type == "CSRT":
            tracker = cv2.legacy.TrackerCSRT_create()
        if tracker_type == "MOSSE":
            tracker = cv2.legacy.TrackerMOSSE_create()
        # Read video 获取视频
        video = cv2.VideoCapture("D:/XiaoStudy/JiSuanJiShiJue/jisuanjishijue/shiyan3/vtest.mp4")
     
        # Exit if video not opened.
        if not video.isOpened():
            print("Could not open video")
            sys.exit()
     
        # Read first frame.
        ok, frame = video.read()
        if not ok:
            print('Cannot read video file')
            sys.exit()
        
        # Define an initial bounding box 定义初始化的边界框
        bbox = (287, 23, 86, 320)
     
        # Uncomment the line below to select a different bounding box 取消下面一行的注释,选择一个不同的边界框架
        bbox = cv2.selectROI(frame, False)
     
        # Initialize tracker with first frame and bounding box 用第一帧和包围框初始化跟踪边界框架
        ok = tracker.init(frame, bbox)
     
        while True:
            # Read a new frame
            ok, frame = video.read()
            if not ok:
                break
            
            # Start timer 开始计时
            timer = cv2.getTickCount()
     
            # Update tracker 更新跟踪信号
            ok, bbox = tracker.update(frame)
     
            # Calculate Frames per second (FPS) 计算每秒帧数(FPS) 
            fps = cv2.getTickFrequency() / (cv2.getTickCount() - timer);
     
            # Draw bounding box 绘制边界框
            if ok:
                # Tracking success 跟踪成功
                p1 = (int(bbox[0]), int(bbox[1]))
                p2 = (int(bbox[0] + bbox[2]), int(bbox[1] + bbox[3]))
                cv2.rectangle(frame, p1, p2, (255,0,0), 2, 1)
            else :
                # Tracking failure 跟踪失败
                cv2.putText(frame, "Tracking failure detected", (100,80), cv2.FONT_HERSHEY_SIMPLEX, 0.75,(0,0,255),2)
     
            # Display tracker type on frame 在帧上显示跟踪器类型
            cv2.putText(frame, tracker_type + " Tracker", (100,20), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50),2);
        
            # Display FPS on frame 帧显示FPS
            cv2.putText(frame, "FPS : " + str(int(fps)), (100,50), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50), 2);
     
     
            # Display result 显示结果
            cv2.imshow("Tracking", frame)
     
            # Exit if ESC pressed 
            k = cv2.waitKey(1) & 0xff
            if k == 27 : break
    

     

    展开全文
  • 视频监控领域对计算机视觉技术有急切的需求,而视觉目标跟踪是其中一个重要的基 础研究问题,通过对感兴趣的目标物体进行跟踪并记录跟踪轨迹,我们可以从一段视频中 提取出一个结构化的视频摘要,还可以对视频中的...
  • 计算机研究 -基于计算机视觉的运动目标跟踪算法研究.pdf
  • 【AI科技大本营导读】目前,计算机视觉是深度学习领域最热门的研究领域之一。计算机视觉实际上是一个跨领域的交叉学科,包括计算机科学(图形、算法、理论、系统、体系结构),数学(信息检索、机器学习),工程学...
  • 计算机研究 -基于计算机视觉的无人机目标跟踪与定位算法研究.pdf
  • 深度学习计算机视觉五大技术:图像分类、对象检测、目标跟踪、语义分割和实例分割 计算机视觉.pdf
  • 基于计算机视觉的运动目标跟踪算法.pdf
  • #资源达人分享计划#
  • 基于计算机视觉的运动目标跟踪算法研究.pdf
  • 基于计算机视觉的飞行目标跟踪研究.pdf
  • 计算机视觉目标跟踪算法遇到的各种困难和瓶颈不同的是, 鲁棒视觉目标跟踪仅仅是人类视觉系统的一 项基本功能. 为此, 基于自顶向下的视觉注意机制, 构建了一种相应的计算模型, 提出一种利用检测视觉注意力焦点...
  • 基于计算机视觉的动目标图象分割与跟踪.pdf
  • 深度学习视觉目标跟踪算法毕业论文
  • 资源名:目标跟踪_视觉分析_基于模型的行人跟踪_涉及底层视觉的高层视觉处理_行人跟踪_matlab 资源类型:matlab项目全套源码 源码说明: 全部项目源码都是经过测试校正后百分百成功运行的,如果您下载后不能运行可...
  • 基于深度学习的视觉目标跟踪算法综述.pdf
  • 运动目标检测技术是计算机视觉领域研究的热点和难点,算法多种多样。其主要原理是实现图像的分割,将目标和背景的分离,视频监控图像帧中运动变化部分分离出来,然后实现对运动目标跟踪、分类、识别。目标检测算法...
  • 实现无人直升机对移动目标的跟踪是一个较难的技术,针对这个问题,本文基于计算机视觉对无人直升机移动目标跟踪技术进行了研究。首先,设计了无人直升机跟踪移动目标的总体方案;其次,提出了一种快速识别定位移动...
  • 1)通用的计算机视觉CV研究问题:目标分类,目标识别,目标检测,目标分割,目标跟踪 2)具体核心的发展历程在这个文章里讲透彻:深度学习面试题——深度学习的技术发展史 3)笔试求AC,可以不考虑空间复杂度,但是...
  • 基于matlab卡尔曼滤波目标跟踪,卡尔曼滤波目标跟踪

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 31,764
精华内容 12,705
关键字:

计算机视觉目标跟踪