精华内容
下载资源
问答
  • 多目标制
    千次阅读
    2022-01-22 10:08:23

    问题描述

    使用catkin_make编译一个功能包,第一次编译由于编译的cpp文件命名与camkefile中的不一致,所以编译失败了。修改相应的名字之后再次编译还是失败。显示如下报错:

    make[2]:*** 没有规则可制作目标"auto_alignment/CMakeFiles/alignment_+server.dir/build"。停止
    recipe for target 'auto_alignment/CMakeFiles/alignment_+server.dir/all' failed
    recipe for target 'all' failed
    

    解决办法

    这个是因为上次编译失败,导致编译环境部分缺失。
    解决办法其实很简单。去到工作空间的build文件夹,找到相应的pkg包,然后删掉重新编译就好啦。

    更多相关内容
  • 法院岗位目标责任履职总结岗位目标责任.doc
  • 多目标跟踪(MOT)最新综述,一文快速入门 0 写在前面 去年暑期实习的时候,误打误撞进了一家自动驾驶公司,做了多目标跟踪的工作,工作也是秋招时靠着相关工作拿到了几个算法岗offer,后来毕业课题也换成了多目标跟踪...

    多目标跟踪(MOT)最新综述,一文快速入门

    0 写在前面

    去年暑期实习的时候,误打误撞进了一家自动驾驶公司,做了多目标跟踪的工作,工作也是秋招时靠着相关工作拿到了几个算法岗offer,后来毕业课题也换成了多目标跟踪。

    前段时间毕业整体资料,在B站上传了一个由自己改进算法制作的行人多目标跟踪demo——《大规模密集行人检测跟踪,行人多目标跟踪,MOT20效果可以,可用于视频智能监控、自动驾驶等》

    链接:https://www.bilibili.com/video/BV1zv411p7N2
    https://www.bilibili.com/video/BV1zv411p7N2

    没想到被很多朋友看到,其中不少朋友私信或者评论留言说对多目标跟踪感兴趣,但资料比较少,希望分享一份多目标跟踪的综述。

    于是便有了这篇文章,也在朋友的建议下建了一个自动驾驶交流群,感兴趣的朋友可以文末扫码进群一起学习、一起玩。

    PS:虽然最后的毕业论文查重是0.7%,但为了日后抽查安全,部分内容只能是语焉不详,还望理解。

    1 MOT简介

    多目标跟踪,一般简称为MOT(Multiple Object Tracking),也有一些文献称作MTT(Multiple Target Tracking)。在事先不知道目标数量的情况下,对视频中的行人、汽车、动物等多个目标进行检测并赋予ID进行轨迹跟踪。不同的目标拥有不同的ID,以便实现后续的轨迹预测、精准查找等工作。

    MOT是计算机视觉领域的一项关键技术,在自动驾驶、智能监控、行为识别等方向应用广泛。如下图所示,对于输入视频,输出目标的跟踪结果,包括目标包围框和对应的ID编号。理论上,同一个目标的ID编号保持不变。
    在这里插入图片描述

    多目标跟踪中即要面对在单目标跟踪中存在的遮挡、变形、运动模糊、拥挤场景、快速运动、光照变化、尺度变化等挑战,还要面对如轨迹的初始化与终止、相似目标间的相互干扰等复杂问题。因此,多目标跟踪当前仍然是图像处理中的一个极具挑战性的方向,吸引了不少研究人员的长期投入。

    2 研究难点

    目标跟踪是一个早已存在的方向,但之前的研究主要集中于单目标跟踪,直到近几年,多目标跟踪才得到研究者的密切关注。与其它计算机视觉任务相比,多目标跟踪任务主要存在以下研究难点:

    1) 数据集缺乏且标注困难;

    2)目标检测不够准确;

    3)频繁的目标遮挡;

    4)目标数量不确定;

    5)速度较慢,实时性不够;

    3 数据集

    近年,随着自动驾驶、智能监控等应用的发展需要,陆续形成了一些MOT基准数据集,包括MOTChallenge数据集、KITTI和其它几个已不太常用的数据集。

    3.1 MOTChallenge数据集

    MOTChallenge是目前MOT领域使用最多的数据集,主要是针对行人多目标跟踪任务,包括MOT15、MOT16、MOT17和MOT20等数据集。
    图片

    MOT20数据集示例

    3.2 KITTI数据集

    KITTI数据集是目前全球最大的自动驾驶场景数据集,支持双目、光流、视觉测距、3D目标检测和3D跟踪等任务。通过一辆装有彩色/灰色立体摄像头、Velodyne HDL-64E旋转式3D激光扫描仪和GPS/IMU导航系统等多传感器的汽车在城市中环、郊区和高速公路等多个场景的多个路段收集而成。

    对于MOT任务,KITTI提供了激光雷达点云和3D包围框轨迹。

    在这里插入图片描述

    KITTI数据集示例

    3.3 其它数据集

    除了MOTChallenge和KITTI数据集之外,还有几个较老的数据集,目前已经很少使用。主要有UA-DETRAC[60]数据集、TUD[61]数据集和PETS2009[62]数据集。感兴趣的朋友可以去网上搜一下。

    PS: 由于KITTI官网数据集下载很慢很慢,所以我之前就特意写了一篇分享文章,分享了KITTI的全套百度网盘下载链接,帮助到了一些国内的朋友,也收获了一些好评。有需要的朋友可点击下文获取,免费分享:

    kitti数据集简介与网盘分享 kitti-object、kitti-tracking自动驾驶

    MOT16数据集的百度网盘也一起免费分享了出来:

    多目标跟踪数据集MOT16简介与百度网盘分享 MOT16百度云

    4 评价指标

    经过不断完善,目前形成了一组多目标跟踪专用评估指标[63-64]。具体定义及计算公式如下:

    1)FP:False Positive,即真实情况中没有,但跟踪算法误检出有目标存在。
    2)FN:False Negative,即真实情况中有,但跟踪算法漏检了。
    3)IDS:ID Switch,目标ID切换的次数。
    4)MOTA: Multiple Object Tracking Accuracy,多目标跟踪准确度。
    在这里插入图片描述
    MOTA可以较好地反映跟踪准确度,是当前MOT的主要评估指标。但MOTA不能反映MOT算法对同一个目标轨迹长时间跟踪性能表现。

    5)IDF1: ID F1得分,正确身份标签赋予的检测框与平均ground truth和计算的检测数量的比值。
    在这里插入图片描述
    6)MT:Mostly Tracked,大多数目标被跟踪的轨迹数量。目标被成功跟踪到的轨迹长度与轨迹总长度的比值大于等于80%的轨迹数量。

    7)ML:Mostly Lost,大多数目标被跟丢的轨迹数量。目标被成功跟踪到的轨迹长度与轨迹总长度的比值小于等于20%的轨迹数量。

    8)MOTP:Multiple Object Tracking Precision,多目标跟踪精度。表示得到的检测框和真实标注框之间的重合程度。
    在这里插入图片描述
    9)FPS:Frames Per Second,每秒处理的帧数。

    5 研究方案

    视觉目标跟踪的发展相对较短,主要集中在近十余年。早期比较经典的方法有Meanshift[19]和粒子滤波[20]等方法,但整体精度较低,且主要为单目标跟踪。

    近五六年来,随着目标检测的性能得到了飞跃式进步,也诞生了基于检测进行跟踪的方案,并迅速成为当前多目标跟踪的主流框架,极大地推动了MOT任务的前进。同时,近期也出现了基于检测和跟踪联合框架以及基于注意力机制的框架,开始引起研究者们的注意力。

    5.1 MOT三种框架——基于Tracking-by-detection的MOT
    在这里插入图片描述

    基于Tracking-by-detaction框架的MOT算法是先对视频序列的每一帧进行目标检测,根据包围框对目标进行裁剪,得到图像中的所有目标。然后,转化为前后两帧之间的目标关联问题,通过IoU、外观等构建相似度矩阵,并通过匈牙利算法、贪婪算法等方法进行求解。

    代表方法:SORT、DeepSORT

    5.2 MOT三种框架——基于检测和跟踪联合的MOT
    JDE采用FPN结构,分别从原图的 1/8,1/16 和 1/32 三个尺度进行预测。在这三个不同尺度的输出特征图上分别加入预测头(prediction head),每个预测头由几层卷积层构成,并输出大小为 (6A+D)×H×W 的特征向量。其中 A 为对应尺度下设置的锚框的数量,D 是外观特征的维度。
    在这里插入图片描述

    JDE在MOT16测试集上MOTA=64.4%,GPU环境下,高分辨率输入图像下FPS达到22.2,低分辨率输入图像下FPS达到30.3,是第一个接近实时的多目标跟踪算法。

    代表方法:JDE、FairMOT、CenterTrack、ChainedTracker等

    5.3 MOT三种框架——基于注意力机制的MOT
    随着Transformer[42]等注意力机制在计算机视觉中的应用火热,近期开始有研究者提出了基于注意力机制的多目标跟踪框架,目前主要有TransTrack[43]和TrackFormer[44],这两项工作都是将Transformer应用到MOT中。

    TransTrack将当前帧的特征图作为Key,将前一帧的目标特征Query和一组从当前帧学习到的目标特征Query一起作为整个网络的输入Query。
    图片
    代表方法:TransTrack、TrackFormer等

    6 效果展示
    6.1 图片

    在这里插入图片描述
    在这里插入图片描述

    6.2 视频

    链接:https://www.bilibili.com/video/BV1zv411p7N2
    https://www.bilibili.com/video/BV1zv411p7N2

    7 参考文献

    在课题研究中,参考了大量相关文献,表示感谢。限于篇幅原因,这里就不再罗列了。最后,再次表示感谢。

    8 写在最后

    对于文章开头提到的自动驾驶交流群,主要是一些学习资料的分享、资讯、招聘、内推信息分享等,感兴趣的朋友欢迎进群一起玩:

    展开全文
  • 看了网上的xml转txt的博客很上来就给代码,关于怎么用都不说,有的也用不了,所以这里自己写了一份代码

    目录

    1  labelimg介绍

    2  labelimg的安装

    3  使用labelimg

    3.1 数据准备

    3.2  标注前的一些设置

    3.3 开始标注


    1  labelimg介绍

      Labelimg是一款开源的数据标注工具,可以标注三种格式。

           1  VOC标签格式,保存为xml文件。

           2  yolo标签格式,保存为txt文件。

           3 createML标签格式,保存为json格式。

    2  labelimg的安装

           这里主要讲的是在window系统中的安装,首先打开cmd命令行(快捷键:win+R)。进入cmd命令行控制台。输入如下的命令:

    pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple

           运行如上命令后,系统就会自动下载labelimg相关的依赖。由于这是一个很轻量的工具,所以下载起来很快,当出现如下红色框框中的告诉我们成功安装的时候,说明labelimg安装成功了。

    3  使用labelimg

    3.1 数据准备

            首先这里需要准备我们需要打标注的数据集。这里我建议新建一个名为VOC2007的文件夹(这个是约定俗成,不这么做也行),里面创建一个名为JPEGImages的文件夹存放我们需要打标签的图片文件;再创建一个名为Annotations存放标注的标签文件;最后创建一个名为 predefined_classes.txt 的txt文件来存放所要标注的类别名称。

    VOC2007的目录结构为:

    ├── VOC2007
    │├── JPEGImages  存放需要打标签的图片文件
    │├── Annotations  存放标注的标签文件
    │├── predefined_classes.txt  定义自己要标注的所有类别(这个文件可有可无,但是在我们定义类别比较多的时候,最好有这个创建一个这样的txt文件来存放类别

    3.2  标注前的一些设置

             首先在JPEGImages这个文件夹放置待标注的图片,这里是三类图片,分别是人、狗和猫。

            然后再 predefined_classes.txt 这个txt文档里面输入定义的类别种类;如下图所示。

             打开cmd命令终端(快捷键:win+R)。进入到刚刚创建的这个VOC2007路径(这个很重要,涉及到能不能利用predefined_classes.txt 这个txt文件中定义的类别,我在这里卡了很久,一度以为不能显示txt文件中定义的类别是我安装有问题)。执行如图中的命令进入到VOC2007路径下(每个人的路径都不一样,按个人的路径去写)如下图所示:可以看到进入到相应的目录了。

     

             输入如下的命令打开labelimg。这个命令的意思是打开labelimg工具;打开JPEGImage文件夹,初始化predefined_classes.txt里面定义的类。

    labelimg JPEGImages predefined_classes.txt

              运行如上的命令就会打开这个工具;如下。 

            下面介绍图中的我们常用的按钮。         

     待标注图片数据的路径文件夹,这里输入命令的时候就选定了JPEGImages。(当然这是可以换的)

    保存类别标签的路径文件夹,这里我们选定了Annotations文件夹。

    这个按键可以说明我们标注的标签为voc格式,点击可以换成yolo或者createML格式。

            点击View,会出现如图红色框框中的选项。最好和我一样把勾勾勾上。

            Auto Save mode:切换到下一张图的时候,会自动保存标签。

            Display Labels:会显示标注框和标签

            Advanced Mode:标注的十字架会一直悬浮在窗口。

     常用快捷键如下:

    A:切换到上一张图片

    D:切换到下一张图片

    W:调出标注十字架

    del :删除标注框框

    Ctrl+u:选择标注的图片文件夹

    Ctrl+r:选择标注好的label标签存在的文件夹

     3.3 开始标注

            由于我们设置标注的十字架一直在标注界面上,这就不需要我们按快捷键w,然后选定我们需要标注的对象。按住鼠标左键拖出框框就可以了。如下图所示,当我们选定目标以后,就会加载出来predefined_classes.txt  定义自己要标注的所有类别(如果类别多,是真的很方便,就不需要自己手打每个类别的名字了)。打好的标签框框上会有该框框的类别(图中由于颜色的原因不太清晰,仔细看会发现的)。然后界面最右边会出现打好的类别标签。打好一张照片以后,快捷键D,就会进入下一张,这时候就会自动保存标签文件(voc格式会保存xml,yolo会保存txt格式)。

             标签打完以后可以去Annotations 文件下看到标签文件已经保存在这个目录下。

     自此labelimg使用讲解就结束了。

    展开全文
  • 快速多目标检测——YOLO9000

    万次阅读 2017-01-04 14:13:52
    本次介绍一篇有关快速目标检测的文章...项目主页:http://pjreddie.com/darknet/yolo/ —————————— Introduction —————————— 通用的目标检测不但要够快够准,还要能够检测类的目标。但实际情

    本次介绍一篇有关快速目标检测的文章《YOLO9000: Better, Faster, Stronger》。该方法记作YOLOv2,相比v1除了在性能上有所提升之外,更是在速度上表现惊人。

    项目主页:http://pjreddie.com/darknet/yolo/

    ———————— Introduction ————————

    通用的目标检测不但要够快够准,还要能够检测多类的目标。但实际情况是,目标检测数据集包含的类别数都太少,远远小于图像分类数据集所包含的类别数(比如ImageNet)。

    于是,本文提出了一种联合训练的方法,可以同时利用检测数据集和分类数据集来训练目标检测器。具体思路是,利用目标检测数据集来学习目标的准确定位,用分类数据集来增加检测的目标类别数以及检测器的鲁棒性。

    通过采用上述策略,本文利用COCO目标检测数据集和ImageNet图像分类数据集训练得到了YOLO9000,可以实时地检测超过9000类的目标。

    ———————— Better ————————

    YOLOv1同Fast RCNN相比存在定位不准以及召回率不如Region Proposal方法等问题。因此,V2的主要目标就是在保持分类准确率的同时提高召回率和定位准确度。

    为了做到又快又好,所以文章在简化的网络上采用了很多策略来提高性能,具体用的技术如下表:

    float

    (1) Batch Normalization

    BN可以加速收敛,同时BN也可以替代Dropout等正则化手段来防止网络过拟合。

    (2) High Resolution Classifier

    YOLOv1是在ImageNet预训练了一个输入为224x224大小的模型,当想要检测小目标时需要把图像resize到448x448,同时网络也要相应地进行调整。

    为了适应较大的分辨率,YOLOv2以448x448的分辨率在ImageNet上预训练了10个epoch,然后将该预训练模型在检测数据上finetune,最终得到了 4% mAP的提升。

    (3) Convolutional With Anchor Boxes

    YOLOv1直接通过全连接层来预测bounding box的坐标,与Fast-RCNN相比有两个缺点:
    一是只能预测98个框,数量太少,而Fast-RCNN在conv-map上每一个位置都可以预测9个框;二是预测坐标不如预测坐标相对偏移量有效,Fast-RCNN预测的是偏移量和置信度。

    因此,YOLOv2移除了全连接层,并将网络输入由448调整为416,使得最后输出的feature map大小为13x13(416/32)。之所以要调整输入为416,是为了使得最后的输出size是一个奇数,这样就可以保证feature map只有一个中心。由于目标(特别是大目标)往往位于图像中心,因此一个正中心来预测位置要比4个要好。

    通过在卷积层使用anchor boxes,网络可以预测超过1000个窗口,虽然这导致了准确率降低了0.3mAP,但是召回率却足足提高了7%。

    (4) Dimension Clusters

    Fast-RCNN中使用3种scales和3中aspect ratios(1:1,1:2,2:1)在每个位置产生了9个anchor boxes。作者认为这种手动选取的anchor不够好,虽然网络最终可以学出来,但如果我们可以给出更好的anchor,那么网络肯定更加容易训练而且效果更好。

    作者通过K-Means聚类的方式在训练集中聚出好的anchor模板。需要注意的是,在使用K-Means中如果使用传统的欧式距离度量,那么大的框肯定会产生更大的误差,因此作者更换为基于IOU的度量方式:

    \(d(box,centroid) = 1- IOU(box,centroid)\)。

    下表表明,基于K-Means的anchor box选取比手动选取效果好:

    float

    通过权衡速度与性能,作者最终选则聚5类时得到的anchor boxes。
    float

    (5) Direct Location Prediction

    作者在训练中发现模型不稳定,特别是训练早期。这主要是由anchor box回归引起的,因为预测的是偏移量,这可能导致前期预测得到的框偏移到图像任何位置。

    因此,作者采用了一种较强约束的定位方法,参见下图:

    float

    如上图,每个cell会预测5个bounding box,每个bounding box预测 \(t_x,t_y,t_w,t_h,t_o\) 这5个参数。其中 \(t_x,t_y\) 经过sigmoid约束到 \([0\quad1]\),因此预测出来的bounding box的中心点 \(b_x,b_y\)一定位于以 \(c_x,c_y\)为左顶点的cell内。(其中, \(p_w,p_h\)为anchor box的宽高)

    (6) Fine-Grained Features

    Faster F-CNN、SSD通过使用不同尺寸的feature map来取得不同范围的分辨率, YOLOv2则通过添加一个passthrough layer来取得上一层26x26的特征,并将该特征同最后输出特征相结合,以此来提高对小目标的检测能力。具体的做法是将相邻的特征堆积到不同channel中,从而将 \(26\times26\times512\) 的feature map变为 \(13\times13\times2048\) 的feature map。

    (7) Multi-Scale Training

    由于网络只有卷积和pooling层,因此实际上可以接受任意尺寸的输入,作者也希望YOLOv2对各种尺度的图片都足够鲁棒。

    因此,训练过程中每迭代10个batch,都会随机的调整一下输入尺度,具体尺度列表为 \(320,352,…,608\)。

    当输入图片尺寸比较小的时候检测速度比较快,当输入图片尺寸比较大的时候则精度较高,所以YOLOv2可以在速度和精度上进行权衡。

    ———————— Faster ————————

    (1) DarkNet-19

    为了提高性能同时加快速度,作者设计了一个带有19个卷积核5个max-pooling的网络,命名为Darknet-19。设计该网络时主要参考了VGG使用大量3x3卷积,参考NIN使用1x1卷积和avg-pooling,使用BN等。具体网络如下图:

    float

    (2) Training for classification

    先在Imagenet(1000分类)上以224x224输入训练160 epochs,然后再更改输入为448x448继续finetune 10 epochs。(训练的具体设置参见原文)

    (3) Training for detection

    修改(2)预训练的网络的最后几层,然后在检测数据集上finetune。(具体怎么修改还是要参看原文和相关代码)。 以VOC的20类目标检测为例,最后的输出应该是 \(13\times13\times125\) , \(13\times13\) 是feature map尺寸; \(125 = 5\times(20+5)\)表示每个位置预测5个框,每个框有20个分类概率和5个boundingbox参数。

    ———————— Stronger ————————

    前面提到过,作者同时使用检测数据集和分类数据集来训练多目标检测器。具体做法是,将两个数据集混合,训练时如果遇到来自检测集的图片则计算完整的Loss,如果遇到来自分类集的图片则只计算分类的Loss。

    上面的想法实现起来会有一点问题,因为通常使用的softmax假定类间独立,而Imagenet(分类集)包含了100多种狗,COCO(检测集)就只有狗这一类。为了解决这个无法融合的问题,作者使用了multi-label模型,即假定一张图片可以有多个label,并且不要求label间独立。

    (1) Hierarchical Classification

    Imagenet中的类别是从WordNet(描述对象关系的一个语言集合)中选取的。WordNet是一种比较庞大的直线图结构,作者使用分层树的结构来对其进行简化。

    具体地,遍历Imagenet的label,然后在WordNet中寻找该label到根节点(指向一个物理对象)的路径,如果路径只有一条,那么就将该路径直接加入到分层树结构中。然后处理剩余的具有多条路径的label,并将最短路径加入。

    最终可以得到下图所示的分类树:

    float

    至于分类时的概率计算,大家应该可以很容易看出需要采用条件概率,即某个节点的概率值应当等于该节点到根节点的所有条件概率之积。而且,softmax操作也同时应该采用分组操作,如下图:

    float

    (2) Dataset Combination With WordTree

    通过WordTree可以将不同的数据集合并使用。

    (3) Joint Classification and Detection

    最终制作了一个9418分类的WordTree,并且通过重采样保证Imagenet和COCO的数据比例为4:1。

    对于检测数据集中的图片计算完整的Loss并反方向传播,对于分类数据集图片,则只计算分类的loss,同时假设IOU最少为 .3,最后根据这些假设进行反向传播。

    ———————— Conclusion ————————

    没什么好总结的,最后放一张速度对比图吧。

    float

    展开全文
  • 利用深度学习方法如Faster R-CNN或YOLOv3等进行目标检测时需要训练数据集,我们很少会根据自己的数据集格式修改代码,更的是按照一定格式修改自己的数据格式,而PASCAL VOC为图像识别和分类提供了一整套标准化的...
  • 点击上方“码农的后花园”,选择“星标”公众号精选文章,第一时间送达目标跟踪(Object-Tracking)问题是目前深度学习中研究的热点问题,主要用在安防监控和自动驾驶上,其中目标跟踪...
  • =$(shell pwd) all: make -C $(KDIR) M=$(PWD) modules clean: rm -rf xxx.o make时,出现错误: make[1]: 进入目录“/yyy/zzz” make[2]: *** 没有规则可制作目标“/xxx.c”,由“/xxx.o” 需求。 停止。 查找...
  • 一、解决办法 1.通过运行以下命令来安重新装 python -m pip install --user -r $IDF_PATH/requirements.txt 2.解释器的版本号可以通过运行命令以下来获得 python --version 3.根据结果,您可能要使用 python2, ...
  • KERN_VER = $(shell uname -r) KERN_DIR = /lib/modules/$(KERN_VER)/build 解决办法: 1、新建一个build文件夹 2、检查KERN_VER最后面不要有空格
  • 【SSD目标检测】2:如何制作自己的数据集

    万次阅读 多人点赞 2018-07-20 14:04:07
    前言:因为要依赖上一章SSD目标检测(1):图片+视频版物体定位(附源码)来训练预测自己的数据集,所以建立自己的数据集是一个复杂且避不开的步骤,以下给出了制作自己的数据集所要经过的简单步骤,而后也有更详细的...
  • MMORPG多人回合游戏战斗框架设计
  • make[1]: *** 没有规则可制作目标“debian/canonical-certs.pem”,由“certs/x509 很头痛,各种各样的问题层出不穷 1.进入 cd /usr/src/linux-4.15 2.输入 vi .config 打开 .config 3. 输入 /CONFIG_SYSTEM_...
  • 数学建模——lingo实现多目标规划

    万次阅读 2019-08-03 18:20:24
    数学建模——lingo实现多目标规划
  • 数学建模(3.9)多目标规划

    万次阅读 2019-08-03 18:20:10
    数学建模(3.9)多目标规划 理解 多目标规划跟一般的规划问题有所不同,多目标规划通常是要求学生做出满足各个优先度要求的最佳抉择。衡量出尽量满足所有需求而得出使得目标最优(如收益最大)的方案。 由于...
  • 多目标优化_学习笔记(三)MOEA/D

    万次阅读 多人点赞 2018-03-26 16:13:50
    本篇博客出于学习交流目的,主要是用来记录自己学习多目标优化中遇到的问题和心路历程,方便之后回顾。过程中可能引用其他大牛的博客,文末会给出相应链接,侵删! REMARK:本人纯小白一枚,如有理解错误还望...
  • 目标检测方法总结

    千次阅读 2022-03-16 22:24:47
    目标检测方法总结
  • Manjaro在安装源码的时候出现如下错误 这个原因大多是由于linux内核的header未安装正确 查看内核 uname -r 4.14.60-1-MANJARO 可以看到我当前的内核是4.14.60-1 ...再次执行make install 完美成功...
  • NIPS 2018:作为多目标优化的任务学习:寻找帕累托最优解 任务学习 本质上是一个多目标问题,因为不同任务之间可能产生冲突,需要对其进行取舍。本文明确将 任务学习 视为多目标优化问题,以寻求帕累托最优解...
  • 多目标跟踪入门篇(1):SORT算法详解

    千次阅读 多人点赞 2019-07-15 22:48:05
    一、多目标跟踪概述 多目标跟踪(Multi-Object Tracking,MOT),顾名思义,就是指在同一段影像序列中同时跟踪目标。相比单目标追踪,多目标追踪问题要更加复杂。 根据应用场景的不同,跟踪算法分为两类,...
  • 语义分割数据集转目标检测数据集

    千次阅读 2021-12-14 21:08:54
    最近,在做实时性计算的东西,最初用的语义分割unet,发现它在服务器级GPU下推理的特别慢,但是精度还不错,但是我们追求的是实时性,所以我们还是用一下目标检测,最终选定yolov5 yolov5的数据集大家都知道,是需要...
  • TensorFlow Object Detection API 技术手册(5)——制作自己的目标检测数据集(一)收集图片(二)安装图像打标工具labelImg(三)将XML文件转化为CSV文件(四)生成TFRecords文件 从这一节开始我们要开始准备训练...
  • AUTOSAR架构以及开发流程详细介绍(Vector公司制作-中文版),非常适合初学者以及从事AUTOSAR开发的研究者和工作人员
  • #Linux内核编译出错 make1: *** 没有规则可制作目标“debian/canonical-certs.pem”,由“certs/x509_certificate_list” 需求。 停止。 我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑...
  • 平均精度AP是指每一类别在不同阈值下的Precision值的平均值,可理解为每一类物体P-R曲线下的面积,mAP是目标物体的平均值,其中P代表准确率(Precision),R代表召回率(Recall),他们的计算方式如下: 式中,...
  • make[1]: *** 没有规则可制作目标“debian/canonical-certs.pem”,由“certs/x509_certificate_list” 需求。 停止。 只在这篇博文找到了答案,但是没有具体操作步骤 ...直接界面操作行不通,但是也记录一下步骤,是...
  • 目标检测之VOC2007格式数据集制作

    万次阅读 多人点赞 2018-03-21 16:42:10
    前几天师弟问我如何做自己的VOC2007数据集的事情,当时跟他说网上资料很,让他自己查查,但不知道什么原因和我说还是没搞好。自己想想也是,不熟悉的东西即便在别人眼里看似很简单,到了自己跟前也变得深奥到天际...
  • 1.makefile 改成 Makefile Makefile 文件 1 obj-m := hello.o 2 3 KERNELDIR ?= /lib/modules/$(shell uname -r)/build 4 PWD:=$(shell pwd) 5 all: 6 $(MAKE) -C $(KERNELDIR) M=$(PWD) modules ...
  • 所有的图片都需要进行标注,而且不能遗漏目标物体,这一过程是非常耗时耗力的。 PaddleDetection 把制作好的数据集放在dataset文件夹下,然后修改configs里面的标注文件,对应你想要修改的模型,特别需要注意修改...
  • 睿智的目标检测20——利用mAP计算目标检测精确度

    万次阅读 多人点赞 2020-03-06 17:12:48
    睿智的目标检测20——利用mAP计算目标检测精确度学习前言GITHUB代码下载知识储备1、IOU的概念2、TP TN FP FN的概念3、precision(精确度)和recall(召回率)4、概念举例5、单个指标的局限性什么是AP绘制mAP ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 522,240
精华内容 208,896
关键字:

多目标制