2019-09-05 22:20:41 lzr_ps 阅读数 119
  • 计算机视觉实战:60分钟构建视觉跟踪应用

    课程避免枯燥的理论与原理讲述,从零开始,带领学员一步步完成一个实际的目标跟踪项目,从中学习视觉算法的构建及实现。课程图文并茂,强调视觉概念直观理解与代码实战,让学员在60分钟内掌握实战应用要素。

    863 人正在学习 去看看 CSDN讲师

meanshift算法

研一真的很迷茫啊啊啊
不过既然分到了计算机视觉组,就安下心来慢慢学习吧。欢迎评论指正互相学习啊

--------------------------分割线-----------------------------------
今天听了博士学长的毕业预答辩,做的是目标跟踪方向,目前目标跟踪大致分为三类:
1.生成式目标跟踪方法
2.判别性目标跟踪方法
3.深度学习目标跟踪方法
meanshift算法属于生成式的目标跟踪方法。
其思路很简单,就是通过概率密度的梯度爬升来寻找局部最优解。
原理我就不赘述了(csdn上讲解还是蛮多的)
直接上代码吧

import cv2
import numpy as np

img1 = cv2.imread("./img/image1.jpg")
img2 = cv2.imread("./img/image2.jpg")
# 目标所在框
frame = img1[270:330, 65:125]
# 跟踪框
track_window = (45, 240, 60, 60)
# roi区域的hsv图像
hsv_roi = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV)
# 取值hsv值在(0,60,32)(180,255,255)之间的部分

mask = cv2.inRange(hsv_roi, np.array((30., 30., 30.)), np.array((180., 255., 255.)))
# 计算直方图,参数为 图片(可多),通道数,蒙板区域,直方图长度,范围
roi_hist = cv2.calcHist([hsv_roi], [0], mask, [180], [0, 180])
# 归一化
cv2.normalize(roi_hist, roi_hist, 0, 255, cv2.NORM_MINMAX)

# 设置终止条件,迭代10次或者至少移动1次
term_crit = ( cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1)

# 计算每一帧的hsv图像
hsv = cv2.cvtColor(img2, cv2.COLOR_BGR2HSV)
# 计算反向投影
dst = cv2.calcBackProject([hsv], [0], roi_hist, [0,180], 1)

# 调用meanShift算法在dst中寻找目标窗口,找到后返回目标窗口
ret, track_window = cv2.meanShift(dst, track_window, term_crit)
# Draw it on image
x, y, w, h = track_window
print(x, y, w, h)
img2 = cv2.rectangle(img2, (x,y), (x+w,y+h), 255,2)

cv2.imwrite("./img/image2_new.jpg", img2)
cv2.imwrite("./img/new.jpg", dst)
cv2.imwrite("./img/new2.jpg", mask)

因为opencv里已经有了封装好的meanshift函数,所以我们只需要将其应用到目标跟踪上就好了。
具体流程:
1.指定要追踪物体的所在位置
2.求出该物体的反向投影图,大概是这样:
原图:
原图反向投影图:
在这里插入图片描述
可以看到,在反向投影图中,跟踪的物体已经变成了一些与背景有明显区别的像素点
3.接下来就可以使用meanshift算法进行目标跟踪啦
结果:
在这里插入图片描述

我这是用两张图片模拟了视频的两帧

补充:

1.跟踪物体与环境的区别要很大,而且最好不是黑色(我用黑色检测不出来。。。),
2.物体移动的距离不要太大,不然也追踪不到

----------分割线-------------
视觉这块感觉自己是个小白,求大神给建议。。。。

2020-02-27 07:48:01 weixin_35894210 阅读数 172
  • 计算机视觉实战:60分钟构建视觉跟踪应用

    课程避免枯燥的理论与原理讲述,从零开始,带领学员一步步完成一个实际的目标跟踪项目,从中学习视觉算法的构建及实现。课程图文并茂,强调视觉概念直观理解与代码实战,让学员在60分钟内掌握实战应用要素。

    863 人正在学习 去看看 CSDN讲师

声明:
1、论文覆盖时间段:2019年12月31日-2020年02月19日
2、在此推荐大家关注 计算机视觉论文速递 知乎专栏,可以快速了解到最新优质的CV论文

【1】旷视Detection组开源:视频理解算法库(含单目标跟踪SOT、视频目标分割VOS等)
【Video Analyst】

这是一系列对视频理解有用的基本算法的实现(基于PyTorch),包括单目标跟踪(SOT,Single Object Tracking),视频目标分割(VOS,Video Object Segmentation)等。

【当前实现列表】
单目标跟踪:

  • SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines
  • 论文链接:https://arxiv.org/abs/1911.06188
  • SiamFC++是浙江大学和旷视提出的目标跟踪论文(收录于AAAI 2020),速度高达90FPS,表现SOTA!注:因为该项目刚出来没多久,所以支持的算法还不是很多,后面应该会陆续更新,大家可以关注一波
    项目链接:https://github.com/MegviiDetect

【2】L1DPF-M:整合正则化l1跟踪和实例分割以进行视频目标跟踪

《Integration of Regularized l1 Tracking and Instance Segmentation for Video Object Tracking》
链接:https://arxiv.org/abs/1912.12883
代码(未放源码):https://github.com/msprITU/L1DPFM
注:L1DPF-M目标跟踪新网络,其性能优于SiamRPN、TCNN等网络,即将开源!

【3】姿态辅助多摄像机协作以进行主动目标跟踪

《Pose-Assisted Multi-Camera Collaboration for Active Object Tracking》
主页:https://sites.google.com/view/pose-assistedcollaboration
链接:https://arxiv.org/abs/2001.05161
注:性能表现SOTA,优于DaSiam、BACF和RLD等网络

【4】ABCTracker:易于使用的基于云的应用程序,用于跟踪多个对象

《ABCTracker: an easy-to-use, cloud-based application for tracking multiple objects》
作者团队:北卡罗来纳大学夏洛特分校&亚利桑那大学
主页:https://abctracker.org/
链接:https://arxiv.org/abs/2001.10072

注:ABC Tracker是一种免费,简单且有效的多目标跟踪工具,现开放下载和使用(支持蚂蚁、蜜蜂等对象的目标跟踪)

如有侵权,尽快删除
【5】Flow-Fuse-Tracker:通过光流和融合进行多目标跟踪

《Multiple Object Tracking by Flowing and Fusing》
作者团队:CMU&西安交通大学&复旦大学等
链接:https://arxiv.org/abs/2001.11180
注:在MOT17等数据集上表现SOTA!优于Tracktor、LSSTO和FAMNet等网络

【6】OA-LSTM-ADA:目标自适应LSTM网络,用于对抗性数据增强的实时目标跟踪

《Object-Adaptive LSTM Network for Real-time Visual Tracking with Adversarial Data Augmentation》
作者团队:厦门大学&清华大学等
链接:https://arxiv.org/abs/2002.02598
注:一种新的实时视觉跟踪方法,采用目标自适应LSTM网络来有效地捕获视频序列依存关系并自适应地学习目标外观变化,表现SOTA!

【7】MAST:具有记忆增强功能的自监督目标跟踪器

《MAST: A Memory-Augmented Self-Supervised Tracker》
作者团队:牛津大学VGG组
链接:https://arxiv.org/abs/2002.07793
代码(即将开源):https://github.com/zlai0/MAST
注2:自监督目标跟踪新网络,表现SOTA!性能优于UVC、CorrFlow和CycleTime等网络,且接近监督类跟踪网络,代码即将开源!

2019-06-03 10:09:45 xpj4657065 阅读数 29
  • 计算机视觉实战:60分钟构建视觉跟踪应用

    课程避免枯燥的理论与原理讲述,从零开始,带领学员一步步完成一个实际的目标跟踪项目,从中学习视觉算法的构建及实现。课程图文并茂,强调视觉概念直观理解与代码实战,让学员在60分钟内掌握实战应用要素。

    863 人正在学习 去看看 CSDN讲师

 

计算机视觉核心主要包括目标检测、目标识别和目标跟踪。

目标检测是利用不同种类物体具有不同特征这一特性将某类物体在视频图像中检测出来,

而目标识别问题则更为具体,其是将同一种类中的不同个体进行识别区分,目标检测和识别在机器学习领域都属于分类问题。

在智能系统中,还有一个目标跟踪问题,与检测和识别问题不同,目标首先被识别以后,算法或者系统需要在接下来时序的数据中,快速并高效地对给定目标进行再定位。任务需要区别类似目标,需要避免不要的重复计算,充分利用好时序相关性,并且需要对一些简单的变化鲁棒,必须能够适应旋转,遮挡,尺度改变之类的线性或者非线性变化。

目标跟踪算法一般分为   特征提取,目标模型,目标搜索,模型更新的四个部分

特征提取    对目标外观进行有效的描述

目标模型;目前算法筒仓将目标模型分为两类  生成式和判别式

目标搜索 ;常用的搜索方法有梯度下降,卡尔曼滤波,均值偏移等

模型更新 及时对目标模型进行调整,使能稳定适应目标和背景的变化

 

判别式算法的本质是分类    ,以确定的目标和背景图像为样本,训练得到一个分类器,用该分类器来判别后续帧中的目标和背景。

 

 

 

 

 

 

2019-01-07 15:27:37 m0_37937932 阅读数 630
  • 计算机视觉实战:60分钟构建视觉跟踪应用

    课程避免枯燥的理论与原理讲述,从零开始,带领学员一步步完成一个实际的目标跟踪项目,从中学习视觉算法的构建及实现。课程图文并茂,强调视觉概念直观理解与代码实战,让学员在60分钟内掌握实战应用要素。

    863 人正在学习 去看看 CSDN讲师

跟踪定义:
在一系列的图像中,标注出关于运动物体的可能位置。

一、单目标跟踪

产生候选box方法:
滑动窗口(穷举法)即目标附近所有可能的样本作为候选样本
由于两帧图像之间目标的位移不会发生明显的变化,因而,可以估计在下一帧物体可能出现的位置,在附近产生多个候选box。
粒子滤波(Particle Filter)

如何为候选样本评分:
三种方式!
1.生成式:模板匹配(需要估计运动模型的),得到patch描述(可以是灰度像素值,梯度方向直方图,HOG),估计下一帧图像可能出现的位置,得到一系列的patch并获取其描述,计算相似度。

2.判别式(针对前景和背景训练分类器,把跟踪问题视为分类问题,需要计算特征和分类器):

在线学习
仅使用一个图像块来训练分类器(输入正样本和负样本),相对于离线学习来说,仅使用少量的训练集,即先前帧的box。

多示例学习(Multiple Instance Learning)
构造正样本包!即用确定的目标box和在其周围像素进行采样得到的patch来形成包(由于包含确定目标的box,肯定是正样本包啦),通过正样本包和负样本来训练分类器。通过构造样本包可以有效地防止形变、遮挡、位置偏移的问题

在这里插入图片描述
3.Bag of Patch(使用KNN获取目标位置,不用训练分类器,但依旧使用了前一个帧中的正负样本)
对于预测图像,获取多个patch(根据运动模型在预测位置周围获取),同前序帧的patch和label做KNN,便可得到预测对象出现的位置。
在这里插入图片描述

更新分类器:
仅使用前一帧的跟踪结果来训练分类器有可能跟丢了,提出了anchor方法,使用第一帧目标和当前帧的目标来训练分类器。
在这里插入图片描述

二、多目标跟踪
核心问题:
 Data association
Assignment problems
Discrete combinatorial optimization

具体来说,有两种方法:
ABT(association based track)和CFT(category free track)
在这里插入图片描述
ABT依赖的是预训练好的detector,用在知道对象是什么(且对象类型属于同一种)的跟踪上,在之后的帧中进入新的物体,也能跟踪。而且对于每个跟踪的物体会形成一个轨迹。
CFT需要在第一帧进行标注,在后续帧上找到一个Object,是单目标的跟踪的扩充,相比单目标跟踪会考虑到多个目标的关系,如果在之后帧加入物体,无法追踪。
关于两种方法的比较:
在这里插入图片描述当前帧检测的对象o4对应于上一帧的哪个对象呢?从下图中方形和三角形的得分差不多,该如何匹配?(每个对象在不同的帧位置形成一个track)
在这里插入图片描述
可以使用贪心算法分配分类器,但最好的是Hungarian算法,能获得获得全局最优。
贪心算法在这里插入图片描述

2019-10-13 14:29:51 Superstar02 阅读数 241
  • 计算机视觉实战:60分钟构建视觉跟踪应用

    课程避免枯燥的理论与原理讲述,从零开始,带领学员一步步完成一个实际的目标跟踪项目,从中学习视觉算法的构建及实现。课程图文并茂,强调视觉概念直观理解与代码实战,让学员在60分钟内掌握实战应用要素。

    863 人正在学习 去看看 CSDN讲师

目标跟踪相关算法&论文总结

作为小白,近期想看一些目标跟踪相关的内容,但又无从下手,花了几天时间,找各种资料,总结了网上大佬们写的文章。(大部分来自CSDN、知乎、微信公众号,均已注明出处)

概念:

目标跟踪: 是目标跟踪是计算机视觉研究领域的热点之一,并得到广泛应用。相机的跟踪对焦、无人机的自动目标跟踪等都需要用到了目标跟踪技术。另外还有特定物体的跟踪,比如人体跟踪,交通监控系统中的车辆跟踪,人脸跟踪和智能交互系统中的手势跟踪等。简单来说,目标跟踪就是在连续的视频序列中,建立所要跟踪物体的位置关系,得到物体完整的运动轨迹。给定图像第一帧的目标坐标位置,计算在下一帧图像中目标的确切位置。在运动的过程中,目标可能会呈现一些图像上的变化,比如姿态或形状的变化、尺度的变化、背景遮挡或光线亮度的变化等。目标跟踪算法的研究也围绕着解决这些变化和具体的应用展开。
根据观察模型,目标跟踪算法可分成 2 类:生成式算法和判别式算法。
详细参考:判别式模型与生成式模型

  1. 生成式算法: 在原始影像帧中对目标按指定的方法建立目标模型,然后在跟踪处理帧中搜索对比与目标模型相似度最高的区域作为目标区域进行跟踪。算法主要对目标本身特征进行描述,对目标特征刻画较为细致,但忽略背景信息的影响。在目标发生变化或者遮挡等情况下易导致失跟现象。(以均值漂移目标跟踪方法和粒子滤波目标跟踪方法为代表);
    2.判别式算法: (图像特征+机器学习)通过对原始影像帧,对目标及背景信息进行区分建立判别模型,通过对后续影像帧搜索目标进行判别是目标或背景信息进而完成目标跟踪。其性能更稳健,已经成为目标跟踪的主流跟踪方式。(最新发展就是相关滤波类方法, discriminative correlation filter简称DCF,和深度学习(Deep ConvNet based)类方法,而DCF+CNN的做法成为最近VOT刷榜的标配。2018年的VOT,基于全卷积孪生网络(SiamNet)的方法大崛起,凭借超越DCF方法的准确度和端到端训练的优势,成为目标追踪新的研究方向。)。

按照技术原理:大致可以分为三大类:一是经典跟踪方法(2010年之前),如 Meanshift、粒子滤波(Particle Filter)、卡尔曼滤波和基于特征点的光流算法等;二是基于检测(Track By Detection)或相关滤波(CorrelationFilter)的方法;三是近几年来出现的深度学习相关方法(从SiameseFC到CFNet等)。

目标追踪算法/论文(链接):

在这里插入图片描述
先看目标检测总结:DeepLearning-500-questions/ch08_目标检测/第八章_目标检测
2016及以前(深度学习目标跟追):https://zhuanlan.zhihu.com/p/22334661
2017CVPR:https://blog.csdn.net/dengheCSDN/article/details/77502794
2018CVPR:https://blog.csdn.net/ms961516792/article/details/81382951
2019CVPR:https://blog.csdn.net/TheDayIn_CSDN/article/details/94589411
2013-2019目标跟踪论文(超详细):https://github.com/foolwood/benchmark_results
相关滤波类资源:https://github.com/HEscop/TBCF
一些数据集:https://blog.csdn.net/u013187057/article/details/83866127

目标追踪算法(相关滤波及深度学习):

参考:https://blog.csdn.net/qq_34919792/article/details/89850262
单目标:(推荐的都是性能最优的,相对较新的方法)
1、基于相关滤波的跟踪算法
1)MOSSE
2)CSK
3)KCF/DCF
4)CN
5)DSST
2、基于深度学习的跟踪算法
1)MDNet
2)TCNN
3)GOTURN
4)Deeper and Wider Siamese Networks for Real-Time Visual Tracking(CVPR,2019)
3、深度学习和相关滤波相结合
1)DeepSRDCF
2)C-COT
3)ECO(2017)
4)SiamFC
5)Siamese Net大爆发(2018,SiamRPN, SA-Siam-R)
VOT2018:SiamNet大崛起:https://zhuanlan.zhihu.com/p/46669238
6)SiamMask(CVPR,2019)
7)UPDT(2018,DCF+CNN)
传统跟踪算法(correlation filters)速度快,很容易做到实时,但是鲁棒性没有深度算法好,深度算法往往运算量大,而且因为很多都用到了在线微调,所以速度慢。
多目标(深度学习):

  1. 基于对称网络的多目标跟踪算法
  2. 基于最小多割图模型的多目标跟踪算法
  3. 基于全连接孪生(Siamese-FC)网络的目标跟踪
  4. MDNet的改进网络——Real-Time MDNet
  5. 基于时空域关注模型的多目标跟踪算法
  6. 基于LSTM判别融合表观的多目标跟踪算法
  7. 基于双线性长短期循环网络模型的多目标跟踪算法
    参考:https://mp.weixin.qq.com/s/XwMXrsmSnImgD1vNSVErLg
    http://www.sohu.com/a/323208617_100007727

多目标跟踪分类:

参考:https://mp.weixin.qq.com/s/XwMXrsmSnImgD1vNSVErLg
多目标跟踪最大的特点在于要进行数据关联,所要面对的场景更加复杂,也更具挑战性,除了单目标跟踪所要遇到的问题之外,多目标追踪还通常会遇到以下问题:
1)跟踪目标的自动初始化和自动终止,即处理新目标的出现,老目标的消失。
2)跟踪目标的运动预测和相似度判别,即准确的区分每一个目标。
3)跟踪目标之间的交互和遮挡处理。
4)跟丢目标再次出现时,如何进行再识别问题。

多目标跟踪算法按照轨迹生成的顺序可以分为离线的多目标跟踪和在线的多目标跟踪算法。离线方式的多目标跟踪算法通常构造为目标检测关系的图模型,其中设计和计算检测之间的相似度或者距离度量是决定图模型构造正确性的关键。在线方式的多目标跟踪算法根据当前检测观测,计算与已有轨迹的匹配关系,计算合适的匹配度量决定了匹配的正确性。因此,无论是离线方式的多目标跟踪还是在线方式的多目标跟踪算法,学习检测结果的特征并计算匹配相似度或者距离度量都是多目标跟踪算法的关键步骤。

基于深度学习的多目标跟踪算法的主要任务是优化检测之间相似性或距离度量的设计。根据学习特征的不同,可以分为基于深度表观特征学习的多目标跟踪,基于深度相似性度量学习的多目标跟踪,以及基于深度高阶特征匹配的多目标跟踪。
在这里插入图片描述

深度学习经典算法列举:

--------下面是两个经典的网络模型,了解一下就行,最新的还是参考前面总结的算法的相关文章为好-------
为了通过检测实现跟踪,我们检测所有帧的候选对象,并使用深度学习从候选对象中识别想要的对象。有两种可以使用的基本网络模型:堆叠自动编码器( SAE )和卷积神经网络( CNN )。
SAE: 目前,最流行的使用 SAE 进行目标跟踪的网络是 Deep Learning Tracker(DLT),它使用了离线预训练和在线微调。其过程如下:
在这里插入图片描述
DLT是第一个把深度模型运用在单目标跟踪任务上的跟踪算法。它的主体思路如上图所示:

(1)先使用栈式降噪自编码器(stacked denoising autoencoder,SDAE)在Tiny Images dataset这样的大规模自然图像数据集上进行无监督的离线预训练来获得通用的物体表征能力。预训练的网络结构如上图(b)所示,一共堆叠了4个降噪自编码器, 降噪自编码器对输入加入噪声,通过重构出无噪声的原图来获得更鲁棒的特征表达能力。SDAE1024-2560-1024-512-256这样的瓶颈式结构设计也使获得的特征更加compact。

(2)之后的在线跟踪部分结构如上图©所示,取离线SDAE的encoding部分叠加sigmoid分类层组成了分类网络。此时的网络并没有获取对当前被跟踪物体的特定表达能力。此时利用第一帧获取正负样本,对分类网络进行fine-tune获得对当前跟踪目标和背景更有针对性的分类网络。在跟踪过程中,对当前帧采用粒子滤波(particle filter)的方式提取一批候选的patch(相当于detection中的proposal),这些patch输入分类网络中,置信度最高的成为最终的预测目标。

(3)在目标跟踪非常重要的模型更新策略上,该论文采取限定阈值的方式,即当所有粒子中最高的confidence低于阈值时,认为目标已经发生了比较大的表观变化,当前的分类网络已经无法适应,需要进行更新。

改进的算法参考:SO-DLT(arXiv2015):
Transferring Rich Feature Hierarchies for Robust Visual Tracking

CNN:计算机视觉和视觉跟踪的主流深度模型,具有代表性的基于卷积神经网络的跟踪算法有全卷积网络跟踪器( FCNT )和多域卷积神经网络( MD Net )。
FCNT:充分分析并利用了 VGG 模型中的特征映射,一种预先训练好的ImageNet 数据集,并有如下效果:
a)卷积神经网络特征映射可用于定位和跟踪。
b)对于从背景中区分特定对象这一任务来说,很多卷积神经网络特征映射是噪音或不相关的。
c)较高层捕获对象类别的语义概念,而较低层编码更多的具有区性的特征,来捕获类别内的变形。

因此, FCNT 设计了特征选择网络,在 VGG 网络的卷积 4-3 和卷积 5-3 层上选择最相关的特征映射。 然后为避免噪音的过拟合, FCNT 还为这两个层的选择特征映射单独设计了两个额外的通道(即 SNet 和 GNet ): GNet 捕获对象的类别信息; SNet 将该对象从具有相似外观的背景中区分出来
在这里插入图片描述
FCNT的图如上所示,这两个网络的运作流程如下:都使用第一帧中给定的边界框进行初始化,以获取对象的映射。而对于新的帧,对其进行剪切并传输最后一帧中的感兴趣区域,该感兴趣区域是以目标对象为中心。最后,通过 SNet 和 GNet ,分类器得到两个预测热映射,而跟踪器根据是否存在干扰信息,来决定使用哪张热映射生成的跟踪结果。

MD Net等建议看文章本身

目标跟踪技术主要应用于以下领域:

1.智能视频监控:基于运动识别(基于步法的人类识别、自动物体检测等),自动化监测(监视一个场景以检测可疑行为);交通监视(实时收集交通数据用来指挥交通流动);
2.人机交互:传统人机交互是通过计算机键盘和鼠标进行的,为了使计算机具有识别和理解人的姿态、动作、手势等能力,跟踪技术是关键;
3.机器人视觉导航:在智能机器人中,跟踪技术可用于计算拍摄物体的运动轨迹;
4.虚拟现实:虚拟环境中3D交互和虚拟角色动作模拟直接得益于视频人体运动分析的研究成果,可给参与者更加丰富的交互形式,人体跟踪分析是其关键技术;
5.医学诊断:跟踪技术在超声波和核磁序列图像的自动分析中有广泛应用,由于超声波图像中的噪声经常会淹没单帧图像有用信息,使静态分析十分困难,而通过跟踪技术利用序列图像中目标在几何上的连续性和时间上的相关性,可以得到更准确的结果。

目标跟踪的难点:

(1)目标表征表达问题,虽然深度学习方法具有很强的目标表征能力,但是仍然容易受相似环境的干扰。
(2)目标快速运动,由于很多跟踪的物体都是高速运动,因此既要考虑较大的搜索空间,也要在保持实时性的前提下减小计算量。
(3)变形,多尺度以及遮挡问题,当目标发生很大的形变或者临时被遮挡如何保持跟踪并且在目标重新出现时恢复跟踪。

总的来说,基于深度学习的单目标跟踪算法取得了长足的进步。相对而言,深度学习在多目标跟踪领域的应用还比较多的局限于匹配度量的学习。在多目标跟踪领域中,研究如何采用生成式网络模型和深度强化学习来学习跟踪场景的适应性,以提升跟踪算法的性能是未来的研究趋势。

参考:

  1. https://blog.csdn.net/weixin_42137700/article/details/96484494
  2. https://blog.csdn.net/hacker_long/article/details/86708987
  3. https://blog.csdn.net/yukinoai/article/details/99713692
  4. https://blog.csdn.net/qq_34919792/article/details/89850262
  5. https://www.zhihu.com/question/26493945/answer/156025576(总结的很好)

目标跟踪方法整理

阅读数 1259

没有更多推荐了,返回首页