精华内容
下载资源
问答
  • 目标检测论文从 2014-2018 模型表现表格 Detector VOC07 (mAP@IoU=0.5) VOC12 (mAP@IoU=0.5) COCO (mAP) Published In R-CNN 58.5 – – CVPR’14 OverFeat – – – ICLR’14 MultiBox 29.0 – – CVPR...

    目标检测论文从 2014-2018

    模型表现表格

    Detector VOC07 (mAP@IoU=0.5) VOC12 (mAP@IoU=0.5) COCO (mAP) Published In
    R-CNN 58.5 CVPR’14
    OverFeat ICLR’14
    MultiBox 29.0 CVPR’14
    SPP-Net 59.2 ECCV’14
    MR-CNN 78.2 (07+12) 73.9 (07+12) ICCV’15
    AttentionNet ICCV’15
    Fast R-CNN 70.0 (07+12) 68.4 (07++12) ICCV’15
    Faster R-CNN 73.2 (07+12) 70.4 (07++12) NIPS’15
    YOLO v1 66.4 (07+12) 57.9 (07++12) CVPR’16
    G-CNN 66.8 66.4 (07+12) CVPR’16
    AZNet 70.4 22.3 CVPR’16
    ION 80.1 77.9 33.1 CVPR’16
    HyperNet 76.3 (07+12) 71.4 (07++12) CVPR’16
    OHEM 78.9 (07+12) 76.3 (07++12) 22.4 CVPR’16
    MPN 33.2 BMVC’16
    SSD 76.8 (07+12) 74.9 (07++12) ECCV’16
    GBDNet 77.2 (07+12) 27.0 ECCV’16
    CPF 76.4 (07+12) 72.6 (07++12) ECCV’16
    MS-CNN ECCV’16
    R-FCN 79.5 (07+12) 77.6 (07++12) 29.9 NIPS’16
    PVANET NIPSW’16
    DeepID-Net 69.0 PAMI’16
    NoC 71.6 (07+12) 68.8 (07+12) 27.2 TPAMI’16
    DSSD 81.5 (07+12) 80.0 (07++12) arXiv’17
    TDM 37.3 CVPR’17
    FPN 36.2 CVPR’17
    YOLO v2 78.6 (07+12) 73.4 (07++12) CVPR’17
    RON 77.6 (07+12) 75.4 (07++12) CVPR’17
    DCN ICCV’17
    DeNet 77.1 (07+12) 73.9 (07++12) 33.8 ICCV’17
    CoupleNet 82.7 (07+12) 80.4 (07++12) 34.4 ICCV’17
    RetinaNet 39.1 ICCV’17
    Mask R-CNN ICCV’17
    DSOD 77.7 (07+12) 76.3 (07++12) ICCV’17
    SMN 70.0 ICCV’17
    YOLO v3 33.0 Arxiv’18
    SIN 76.0 (07+12) 73.1 (07++12) 23.2 CVPR’18
    STDN 80.9 (07+12) CVPR’18
    RefineDet 83.8 (07+12) 83.5 (07++12) 41.8 CVPR’18
    MegDet CVPR’18
    RFBNet 82.2 (07+12) ECCV’18

    论文列表:https://github.com/hoya012/deep_learning_object_detection

    未经允许不得转载,请联系zhouas@hotmail.com获取授权:目标检测 » 基于深度学习的目标检测发展历程:deep_learning_object_detection

    展开全文
  • 目标检测算法发展历程

    千次阅读 2020-02-23 17:48:50
    目标检测发展历程1.目标检测发展历程2.目标检测算法流程3. 传统目标检测方法4.深度学习目标检测方法 1.目标检测发展历程 2.目标检测算法流程 3. 传统目标检测方法 Viola-Iones HOG+SVM DPM ······ 4.深度...

    1.发展历程

    2.算法流程

    3. 传统方法

    • Viola-Iones
    • HOG+SVM
    • DPM
    • ······

    4.深度学习方法

    • One-stage(YOLO和SSD系列)
    • Two-stage(Faster RCNN系列)

    One-stage VS Two-stage

    展开全文
  • 计算机视觉:目标检测的发展历程与基础概念目标检测发展历程目标检测基础概念边界框(bounding box)锚框(Anchor box)交并比 对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难理解高层语义概念,...

    在这里插入图片描述

    对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。目标检测的主要目的是让计算机可以自动识别图片或者视频帧中所有目标的类别,并在该目标周围绘制边界框,标示出每个目标的位置,如 图1 所示。


    在这里插入图片描述


    图1:图像分类和目标检测示意图

    • 图1(a)是图像分类任务,只需识别出这是一张斑马的图片。
    • 图1(b)是目标检测任务,不仅要识别出这是一张斑马的图片,还要标出图中斑马的位置。

    目标检测发展历程

    在上一节中学习了图像分类处理基本流程,先使用卷积神经网络提取图像特征,然后再用这些特征预测分类概率,根据训练样本标签建立起分类损失函数,开启端到端的训练,如 图2 所示。


    在这里插入图片描述


    图2:图像分类流程示意图

    但对于目标检测问题,按照 图2 的流程则行不通。因为在图像分类任务中,对整张图提取特征的过程中没能体现出不同目标之间的区别,最终也就没法分别标示出每个物体所在的位置。

    为了解决这个问题,结合图片分类任务取得的成功经验,我们可以将目标检测任务进行拆分。假设我们现在有某种方式可以在输入图片上生成一系列可能包含物体的区域,这些区域称为候选区域,在一张图上可以生成很多个候选区域。然后对每个候选区域,可以把它单独当成一幅图像来看待,使用图像分类模型对它进行分类,看它属于哪个类别或者背景(即不包含任何物体的类别)。

    上一节学过如何解决图像分类任务,使用卷积神经网络对一幅图像进行分类不再是一件困难的事情。那么,现在问题的关键就是如何产生候选区域?比如我们可以使用穷举法来产生候选区域,如图3所示。


    在这里插入图片描述


    图3:候选区域

    A为图像上的某个像素点,B为A右下方另外一个像素点,A、B两点可以确定一个矩形框,记作AB。

    • 如图3(a)所示:A在图片左上角位置,B遍历除A之外的所有位置,生成矩形框A1B1, …, A1Bn, …
    • 如图3(b)所示:A在图片中间某个位置,B遍历A右下方所有位置,生成矩形框AkB1, …, AkBn, …

    当A遍历图像上所有像素点,B则遍历它右下方所有的像素点,最终生成的矩形框集合{AiBj}将会包含图像上所有可以选择的区域。

    只要我们对每个候选区域的分类足够的准确,则一定能找到跟实际物体足够接近的区域来。穷举法也许能得到正确的预测结果,但其计算量也是非常巨大的,其所生成的总候选区域数目约为W2H24\frac{W^2 H^2}{4},假设H=W=100H=W=100,总数将会达到2.5×1072.5 \times 10^{7}个,如此多的候选区域使得这种方法几乎没有什么实用性。但是通过这种方式,我们可以看出,假设分类任务完成的足够完美,从理论上来讲检测任务也是可以解决的,亟待解决的问题是如何设计出合适的方法来产生候选区域。

    科学家们开始思考,是否可以应用传统图像算法先产生候选区域,然后再用卷积神经网络对这些区域进行分类?

    • 2013年,Ross Girshick 等人于首次将CNN的方法应用在目标检测任务上,他们使用传统图像算法Selective Search产生候选区域,取得了极大的成功,这就是对目标检测领域影响深远的区域卷积神经网络(R-CNN)模型。
    • 2015年,Ross Girshick 对此方法进行了改进,提出了Fast R-CNN模型。通过将不同区域的物体共用卷积层的计算,大大缩减了计算量,提高了处理速度,而且还引入了调整目标物体位置的回归方法,进一步提高了位置预测的准确性。
    • 2015年,Shaoqing Ren 等人提出了Faster R-CNN模型,提出了RPN的方法来产生物体的候选区域,这一方法不再需要使用传统的图像处理算法来产生候选区域,进一步提升了处理速度。
    • 2017年,Kaiming He 等人提出了Mask R-CNN模型,只需要在Faster R-CNN模型上添加比较少的计算量,就可以同时实现目标检测和物体实例分割两个任务。

    以上都是基于R-CNN系列的著名模型,对目标检测方向的发展有着较大的影响力。此外,还有一些其他模型,比如SSD、YOLO(1, 2, 3)、R-FCN等也都是目标检测领域流行的模型结构。

    R-CNN的系列算法分成两个阶段,先在图像上产生候选区域,再对候选区域进行分类并预测目标物体位置,它们通常被叫做两阶段检测算法。SSD和YOLO算法则只使用一个网络同时产生候选区域并预测出物体的类别和位置,所以它们通常被叫做单阶段检测算法。由于篇幅所限,本章将重点介绍YOLO-V3算法,并用其完成林业病虫害检测任务,主要涵盖如下内容:

    • 图像检测基础概念:介绍与目标检测相关的基本概念,包括边界框、锚框和交并比等。
    • 林业病虫害数据集:介绍数据集结构及数据预处理方法。
    • YOLO-V3目标检测模型:介绍算法原理,及如何应用林业病虫害数据集进行模型训练和测试。

    目标检测基础概念

    在介绍目标检测算法之前,先介绍一些跟检测相关的基本概念,包括边界框、锚框和交并比等。

    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述

    边界框(bounding box)

    检测任务需要同时预测物体的类别和位置,因此需要引入一些跟位置相关的概念。通常使用边界框(bounding box,bbox)来表示物体的位置,边界框是正好能包含物体的矩形框,如 图4 所示,图中3个人分别对应3个边界框。


    在这里插入图片描述


    图4:边界框

    通常有两种格式来表示边界框的位置:

    1. xyxyxyxy,即(x1,y1,x2,y2)(x_1, y_1, x_2, y_2),其中(x1,y1)(x_1, y_1)是矩形框左上角的坐标,(x2,y2)(x_2, y_2)是矩形框右下角的坐标。图4中3个红色矩形框用xyxy格式表示如下:
    • 左:(40.93,141.1,226.99,515.73)(40.93, 141.1, 226.99, 515.73)
    • 中:(214.29,325.03,399.82,631.37)(214.29, 325.03, 399.82, 631.37)
    • 右:(247.2,131.62,480.0,639.32)(247.2, 131.62, 480.0, 639.32)
    1. xywhxywh,即(x,y,w,h)(x, y, w, h),其中(x,y)(x, y)是矩形框中心点的坐标,ww是矩形框的宽度,hh是矩形框的高度。

    在检测任务中,训练数据集的标签里会给出目标物体真实边界框所对应的(x1,y1,x2,y2)(x_1, y_1, x_2, y_2),这样的边界框也被称为真实框(ground truth box),如 图4 所示,图中画出了3个人像所对应的真实框。模型会对目标物体可能出现的位置进行预测,由模型预测出的边界框则称为预测框(prediction box)。


    注意:

    1. 在阅读代码时,请注意使用的是哪一种格式的表示方式。
    2. 图片坐标的原点在左上角,xx轴向右为正方向,yy轴向下为正方向。

    要完成一项检测任务,我们通常希望模型能够根据输入的图片,输出一些预测的边界框,以及边界框中所包含的物体的类别或者说属于某个类别的概率,例如这种格式: [L,P,x1,y1,x2,y2][L, P, x_1, y_1, x_2, y_2],其中LL是类别标签,PP是物体属于该类别的概率。一张输入图片可能会产生多个预测框,接下来让我们一起学习如何完成这项任务。

    锚框(Anchor box)

    锚框与物体边界框不同,是由人们假想出来的一种框。先设定好锚框的大小和形状,再以图像上某一个点为中心画出矩形框。在下图中,以像素点[300, 500]为中心可以使用下面的程序生成3个框,如图中蓝色框所示,其中锚框A1跟人像区域非常接近。

    # 画图展示如何绘制边界框和锚框
    import numpy as np
    import matplotlib.pyplot as plt
    import matplotlib.patches as patches
    from matplotlib.image import imread
    import math
    
    # 定义画矩形框的程序    
    def draw_rectangle(currentAxis, bbox, edgecolor = 'k', facecolor = 'y', fill=False, linestyle='-'):
        # currentAxis,坐标轴,通过plt.gca()获取
        # bbox,边界框,包含四个数值的list, [x1, y1, x2, y2]
        # edgecolor,边框线条颜色
        # facecolor,填充颜色
        # fill, 是否填充
        # linestype,边框线型
        # patches.Rectangle需要传入左上角坐标、矩形区域的宽度、高度等参数
        rect=patches.Rectangle((bbox[0], bbox[1]), bbox[2]-bbox[0]+1, bbox[3]-bbox[1]+1, linewidth=1,
                               edgecolor=edgecolor,facecolor=facecolor,fill=fill, linestyle=linestyle)
        currentAxis.add_patch(rect)
    
        
    plt.figure(figsize=(10, 10))
    
    filename = '/home/aistudio/work/images/section3/000000086956.jpg'
    im = imread(filename)
    plt.imshow(im)
    
    # 使用xyxy格式表示物体真实框
    bbox1 = [214.29, 325.03, 399.82, 631.37]
    bbox2 = [40.93, 141.1, 226.99, 515.73]
    bbox3 = [247.2, 131.62, 480.0, 639.32]
    
    currentAxis=plt.gca()
    
    draw_rectangle(currentAxis, bbox1, edgecolor='r')
    draw_rectangle(currentAxis, bbox2, edgecolor='r')
    draw_rectangle(currentAxis, bbox3,edgecolor='r')
    
    # 绘制锚框
    def draw_anchor_box(center, length, scales, ratios, img_height, img_width):
        """
        以center为中心,产生一系列锚框
        其中length指定了一个基准的长度
        scales是包含多种尺寸比例的list
        ratios是包含多种长宽比的list
        img_height和img_width是图片的尺寸,生成的锚框范围不能超出图片尺寸之外
        """
        bboxes = []
        for scale in scales:
            for ratio in ratios:
                h = length*scale*math.sqrt(ratio)
                w = length*scale/math.sqrt(ratio) 
                x1 = max(center[0] - w/2., 0.)
                y1 = max(center[1] - h/2., 0.)
                x2 = min(center[0] + w/2. - 1.0, img_width - 1.0)
                y2 = min(center[1] + h/2. - 1.0, img_height - 1.0)
                print(center[0], center[1], w, h)
                bboxes.append([x1, y1, x2, y2])
    
        for bbox in bboxes:
            draw_rectangle(currentAxis, bbox, edgecolor = 'b')
    
    img_height = im.shape[0]
    img_width = im.shape[1]        
    draw_anchor_box([300., 500.], 100., [2.0], [0.5, 1.0, 2.0], img_height, img_width)
    
    
    ################# 以下为添加文字说明和箭头###############################
    
    plt.text(285, 285, 'G1', color='red', fontsize=20)
    plt.arrow(300, 288, 30, 40, color='red', width=0.001, length_includes_head=True, \
             head_width=5, head_length=10, shape='full')
    
    plt.text(190, 320, 'A1', color='blue', fontsize=20)
    plt.arrow(200, 320, 30, 40, color='blue', width=0.001, length_includes_head=True, \
             head_width=5, head_length=10, shape='full')
    
    plt.text(160, 370, 'A2', color='blue', fontsize=20)
    plt.arrow(170, 370, 30, 40, color='blue', width=0.001, length_includes_head=True, \
             head_width=5, head_length=10, shape='full')
    
    plt.text(115, 420, 'A3', color='blue', fontsize=20)
    plt.arrow(127, 420, 30, 40, color='blue', width=0.001, length_includes_head=True, \
             head_width=5, head_length=10, shape='full')
    
    #draw_anchor_box([200., 200.], 100., [2.0], [0.5, 1.0, 2.0])    
    plt.show()
    
    
    
    300.0 500.0 282.84271247461896 141.4213562373095
    300.0 500.0 200.0 200.0
    300.0 500.0 141.42135623730948 282.842712474619
    

    在这里插入图片描述

    在目标检测任务中,通常会以某种规则在图片上生成一系列锚框,将这些锚框当成可能的候选区域。模型对这些候选区域是否包含物体进行预测,如果包含目标物体,则还需要进一步预测出物体所属的类别。还有更为重要的一点是,由于锚框位置是固定的,它不大可能刚好跟物体边界框重合,所以需要在锚框的基础上进行微调以形成能准确描述物体位置的预测框,模型需要预测出微调的幅度。在训练过程中,模型通过学习不断的调整参数,最终能学会如何判别出锚框所代表的候选区域是否包含物体,如果包含物体的话,物体属于哪个类别,以及物体边界框相对于锚框位置需要调整的幅度。

    不同的模型往往有着不同的生成锚框的方式,在后面的内容中,会详细介绍YOLO-V3算法里面产生锚框的规则,理解了它的设计方案,也很容易类推到其它模型上。

    交并比

    上面我们画出了以点(300,500)(300, 500)为中心,生成的三个锚框,我们可以看到锚框A1 与真实框 G1的重合度比较好。那么如何衡量这三个锚框跟真实框之间的关系呢?在检测任务中,使用交并比(Intersection of Union,IoU)作为衡量指标。这一概念来源于数学中的集合,用来描述两个集合AABB之间的关系,它等于两个集合的交集里面所包含的元素个数,除以它们的并集里面所包含的元素个数,具体计算公式如下:

    IoU=ABABIoU = \frac{A\cap B}{A \cup B}

    我们将用这个概念来描述两个框之间的重合度。两个框可以看成是两个像素的集合,它们的交并比等于两个框重合部分的面积除以它们合并起来的面积。下图“交集”中青色区域是两个框的重合面积,图“并集”中蓝色区域是两个框的相并面积。用这两个面积相除即可得到它们之间的交并比,如 图5 所示。



    在这里插入图片描述


    图5:交并比

    假设两个矩形框A和B的位置分别为:
    A:[xa1,ya1,xa2,ya2]A: [x_{a1}, y_{a1}, x_{a2}, y_{a2}]

    B:[xb1,yb1,xb2,yb2]B: [x_{b1}, y_{b1}, x_{b2}, y_{b2}]

    假如位置关系如 图6 所示:


    在这里插入图片描述


    图6:计算交并比

    如果二者有相交部分,则相交部分左上角坐标为:
    x1=max(xa1,xb1),     y1=max(ya1,yb1)x_1 = max(x_{a1}, x_{b1}), \ \ \ \ \ y_1 = max(y_{a1}, y_{b1})

    相交部分右下角坐标为:
    x2=min(xa2,xb2),     y2=min(ya2,yb2)x_2 = min(x_{a2}, x_{b2}), \ \ \ \ \ y_2 = min(y_{a2}, y_{b2})

    计算先交部分面积:
    intersection=max(x2x1+1.0,0)max(y2y1+1.0,0)intersection = max(x_2 - x_1 + 1.0, 0) \cdot max(y_2 - y_1 + 1.0, 0)

    矩形框A和B的面积分别是:
    SA=(xa2xa1+1.0)(ya2ya1+1.0)S_A = (x_{a2} - x_{a1} + 1.0) \cdot (y_{a2} - y_{a1} + 1.0)

    SB=(xb2xb1+1.0)(yb2yb1+1.0)S_B = (x_{b2} - x_{b1} + 1.0) \cdot (y_{b2} - y_{b1} + 1.0)

    计算相并部分面积:
    union=SA+SBintersectionunion = S_A + S_B - intersection

    计算交并比:

    IoU=intersectionunionIoU = \frac{intersection}{union}


    思考:

    两个矩形框之间的相对位置关系,除了上面的示意图之外,还有哪些可能,上面的公式能否覆盖所有的情形?


    交并比计算程序如下:

    # 计算IoU,矩形框的坐标形式为xyxy,这个函数会被保存在box_utils.py文件中
    def box_iou_xyxy(box1, box2):
        # 获取box1左上角和右下角的坐标
        x1min, y1min, x1max, y1max = box1[0], box1[1], box1[2], box1[3]
        # 计算box1的面积
        s1 = (y1max - y1min + 1.) * (x1max - x1min + 1.)
        # 获取box2左上角和右下角的坐标
        x2min, y2min, x2max, y2max = box2[0], box2[1], box2[2], box2[3]
        # 计算box2的面积
        s2 = (y2max - y2min + 1.) * (x2max - x2min + 1.)
        
        # 计算相交矩形框的坐标
        xmin = np.maximum(x1min, x2min)
        ymin = np.maximum(y1min, y2min)
        xmax = np.minimum(x1max, x2max)
        ymax = np.minimum(y1max, y2max)
        # 计算相交矩形行的高度、宽度、面积
        inter_h = np.maximum(ymax - ymin + 1., 0.)
        inter_w = np.maximum(xmax - xmin + 1., 0.)
        intersection = inter_h * inter_w
        # 计算相并面积
        union = s1 + s2 - intersection
        # 计算交并比
        iou = intersection / union
        return iou
    
    
    bbox1 = [100., 100., 200., 200.]
    bbox2 = [120., 120., 220., 220.]
    iou = box_iou_xyxy(bbox1, bbox2)
    print('IoU is {}'.format(iou))  
    
    IoU is 0.47402644317607107
    
    # 计算IoU,矩形框的坐标形式为xywh
    def box_iou_xywh(box1, box2):
        x1min, y1min = box1[0] - box1[2]/2.0, box1[1] - box1[3]/2.0
        x1max, y1max = box1[0] + box1[2]/2.0, box1[1] + box1[3]/2.0
        s1 = box1[2] * box1[3]
    
        x2min, y2min = box2[0] - box2[2]/2.0, box2[1] - box2[3]/2.0
        x2max, y2max = box2[0] + box2[2]/2.0, box2[1] + box2[3]/2.0
        s2 = box2[2] * box2[3]
    
        xmin = np.maximum(x1min, x2min)
        ymin = np.maximum(y1min, y2min)
        xmax = np.minimum(x1max, x2max)
        ymax = np.minimum(y1max, y2max)
        inter_h = np.maximum(ymax - ymin, 0.)
        inter_w = np.maximum(xmax - xmin, 0.)
        intersection = inter_h * inter_w
    
        union = s1 + s2 - intersection
        iou = intersection / union
        return iou
    

    为了直观的展示交并比的大小跟重合程度之间的关系,图7 示意了不同交并比下两个框之间的相对位置关系,从 IoU = 0.95 到 IoU = 0.


    在这里插入图片描述


    图7:不同交并比下两个框之间相对位置示意图


    问题:

    1. 什么情况下两个矩形框的IoU等于1?
    2. 什么情况下两个矩形框的IoU等于0?

    展开全文
  • 目标检测发展历程

    2019-01-04 08:59:00
    参见:https://github.com/hoya012/deep_learning_object_detection 转载于:https://www.cnblogs.com/zf-blog/p/10217918.html

    参见:https://github.com/hoya012/deep_learning_object_detection

    转载于:https://www.cnblogs.com/zf-blog/p/10217918.html

    展开全文
  • 2013 年到 2020 年,52 个目标检测模型,从最早的 R-CNN、OverFeat 到后来的 SSD、YOLO v3 再到去年的 M2Det,新模型层出不穷,性能也越来越好!
  • 目标检测近5年发展历程概述,从R-CNN到RFBNet(2013--2018)(转) 2018年09月24日 12:32:02C小C 【时间】2018.09.24 【题目】目标检测近5年发展历程概述,从R-CNN到RFBNet(2013--2018) 目录 ...
  • 2014年的R-CNN主要步骤如下: 1. 预先生成目标候选区域。 2. 使用CNN提取目标候选区域中的特征,通过分类器(SVM)查看类别。 3. 线性回归出目标的精确位置。2015年的Fast-RCNN的主要步骤如下:
  • 【题目】目标检测近5年发展历程概述,从R-CNN到RFBNet(2013--2018) 目录 概述 一、目标检测相关背景 1.1 目标检测的类别 1 .2 目标检测遇到的主要难题 1.3 过去二十年的进展 二、 框架 2.1框架发展历程 ...
  • 计算机视觉——目标检测背景与动机目标检测任务深度学习发展历程目标检测发展历程卷积神经网络输入层卷积神经网络经典模型目标检测经典算法现状与发展 背景与动机 目标检测任务 首先理解什么是目标检测任务,它与...
  • 【1】目标检测简述

    2020-04-04 09:07:49
    目标检测发展历程简述3.目标检测常用算法简述 1.目标检测的基本任务 目标检测是计算机视觉的一个基本方向。其基本任务就是从一张图片里找到一些物体,判断这些物体是什么,并且尽可能好的把这个物体用一个矩形框给框...
  • 基于Keras的YOLOv4目标检测平台

    千次阅读 多人点赞 2020-08-11 10:49:36
    前言 首先说一下什么是目标检测:对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难解高层语义概念,比如图像或者视频帧中出现目标的是人还是物体,...目标检测发展历程 在上一节中我们学习了图像分类处理
  • 图像中目标检测的任务是分类+定位,所以与CNN基础架构相比,有以下几个针对...深度目标检测算法(网络架构)的发展历程: R-CNN -> Fast R-CNN -> Faster R-CNN -> FCN -> YOLO -&g...
  • 目标检测发展历程 对计算机而言,能够“看到”的是图像被编码之后的数字,所以它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。目标检测的主要目的是让...
  • 目标检测任务及发展脉络 图 像 处 理 三 大 任 务 : 物 体 识 别 、 目 标 检 测 、 图 像 分 割 目标检测: 给 定 一 张 图 像 , 判 断 图 像 中 是 否 存 在 指 定 类 ...目标检测发展历程如下图 基于深层伸进网
  • 目标检测

    2019-11-02 16:35:41
    目标检测两阶段方法R-CNN候选区域生成区域分类边界框回归SPP-...发展历程: 两阶段方法 R-CNN 1.输入图像 2.提取一些候选的检测框(约2000个) 3.为每一个候选检测框提取CNN特征 4.为每个检测框分类 候选区域...
  • 百度飞桨架构师手把手带你零基础实践深度学习——打卡计划总目录目标检测目标检测发展历程目标检测基础概念边界框(bounding box)锚框(Anchor box) 下面给出课程链接,欢迎各位小伙来来报考!本帖将持续更新。我...
  • 对计算机而言,能够“看到”的是图像被编码之后的数字,所以它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。...目标检测发展历程 在上一次训练
  • 第四章:目标检测YoloV3(上)

    千次阅读 2020-08-21 17:01:59
    目录目标检测发展历程目标检测基础概念边界框(bounding box)锚框(Anchor box)交并比林业病虫害数据集和数据预处理方法介绍读取AI识虫数据集标注信息数据读取和预处理数据读取数据预处理**随机改变亮暗、对比度和...
  • 深度学习(目标检测)---目标检测20年

    万次阅读 多人点赞 2018-05-30 11:39:42
    目标检测二十年“目标检测是当前计算机视觉和机器学习领域的研究热点...本文简要回顾了从1994到2017一共二十余年间目标检测发展历程。”01—A Road Map从过去的十多年来看,自然图像的目标检测算法大体上可以分为...
  • 目标检测技术的详解

    千次阅读 2020-03-31 22:17:58
    目标检测发展历程,主要分为两个阶段,传统的目标检测算法和基于深度学习的目标检测算法。 1. 传统的目标检测算法 1.1 Harr-like Paper:Rapid Object Detection using a Boosted Cascade of Simple Features...
  • 识别不同尺寸目标一直是目标检测的难点,尤其是小目标!而特征金字塔一直是解决多尺度目标检测的一个重要的点!现在深度学习目标检测的图像/特征金字塔解决思路有下面几种: a) 图像金字塔 主要使用不同尺度的图片...
  • 目标检测总结整理

    千次阅读 2018-08-15 16:27:29
    这篇文章主要是依据小编自己的学习体会,对目标检测发展历程进行了总结。最初,目标检测算法是基于传统手工特征的;大约在2013年,基于深度学习的目标检测开始逐渐火起来,基于传统的手工特征的目标检测算法被逐渐...
  • 目标检测是当前计算机视觉和机器学习领域的研究...简要概括下从1994到至今一共二十余年间目标检测发展历程。 先看一张图:。。。。。。。 一、基于经典手工特征的目标检测算法(冷兵器时代的智慧) 早期的...
  • 深度学习之目标检测与目标识别

    万次阅读 多人点赞 2018-06-05 21:58:54
    本文主要讲述了目标识别中的第一种类型---基于region proposal的目标检测和目标识别的算法, 主要主要包括R-CNN,Fast R-CNN,Faster R-CNN等网络, 揭示了基于region proposal的目标检测和目标识别的算法的发展历程....
  • 目标检测发展历程主要分为两个阶段:传统目标检测方法、基于深度学习的目标检测方法。 传统目标检测方法主要有三个:Viola Jones Detectors、HOG Detector、Deformable Part-based Model (DPM)。 基于深度学习的...
  • 基于深度学习的目标检测学习总结

    万次阅读 多人点赞 2017-03-30 09:23:11
    围绕这个问题,人们一般把其发展历程分为3个阶段: 1. 传统的目标检测方法 2. 以R-CNN为代表的结合region proposal和CNN分类的目标检测框架(R-CNN, SPP-NET, Fast R-CNN, Faster R-CNN, R-FCN) 3. 以YOLO为代表的...
  • 目标检测基础知识

    千次阅读 2018-06-18 22:21:43
    人们一般把其发展历程分为3个阶段:   a.传统的目标检测方法   b.两阶段检测器  以R-CNN为代表的结合region proposal和CNN分类的目标检测框架(R-CNN, SPP-NET, Fast R-CNN,Faster R-CNN, R-FCN)  c. 单...

空空如也

空空如也

1 2 3 4 5 6
收藏数 115
精华内容 46
关键字:

目标检测发展历程