精华内容
下载资源
问答
  • yolov5增加小目标检测层
    万次阅读 多人点赞
    2021-07-14 00:01:04



    一,model文件解释

    yolov5的模型配置文件如下:

    # parameters
    nc: 80  # number of classes
    depth_multiple: 1.0  # model depth multiple
    width_multiple: 1.0  # layer channel multiple
    
    # anchors
    anchors:
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, BottleneckCSP, [128]],
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, BottleneckCSP, [256]],
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, BottleneckCSP, [512]],
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, BottleneckCSP, [1024, False]],  # 9
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, BottleneckCSP, [512, False]],  # 13
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, BottleneckCSP, [256, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],  # cat head P4
       [-1, 3, BottleneckCSP, [512, False]],  # 20 (P4/16-medium)
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, BottleneckCSP, [1024, False]],  # 23 (P5/32-large)
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]
    

    1.类别数和模型深度宽度控制

    # parameters
    nc: 80  # number of classes
    depth_multiple: 1.0  # model depth multiple
    width_multiple: 1.0  # layer channel multiple
    

    nc:代表类别数
    depth_multiple:模型深度参数
    width_multiple:模型宽度参数
    其中模型深度宽度控制,是通过上面两个参数,作用于BottleneckCSP。
    2.初始Anchor参数

    # anchors
    anchors:
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    

    原始模型,只有三个检测层,因此对应三组初始化Anchor值。当输入图像尺寸为640X640时,# P3/8 对应的检测层大小为80X80大小,可以用来检测大小在8X8以上的目标。# P4/16对应的检测层大小为40X40大小,可以用来检测大小在16X16以上的目标。# P5/32对应的检测层大小为20X20大小,可以用来检测32X32以上的目标。
    3.骨干网络

    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, BottleneckCSP, [128]],
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, BottleneckCSP, [256]],
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, BottleneckCSP, [512]],
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, BottleneckCSP, [1024, False]],  # 9
      ]
    

    这一段配置主要是为了提取图像特征
    4.检测头部

    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, BottleneckCSP, [512, False]],  # 13
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, BottleneckCSP, [256, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],  # cat head P4
       [-1, 3, BottleneckCSP, [512, False]],  # 20 (P4/16-medium)
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, BottleneckCSP, [1024, False]],  # 23 (P5/32-large)
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]
    

    这一段配置,实际上包括了两个部分,即颈部(Neck)和Prediction,在颈部,主要利用类似FPN+PAN的方式。对骨干网络提取到的特征,进行多尺度融合处理。再送入检测层。
    在yolov3中,该阶段只用到了FPN融合,FPN是一种自顶向下传达强语义特征的网络,即一个正金字塔形结构,融合的特征图越来越小。在yolov5中,除了使用FPN结构对特征进行融合,还使用到了PAN结构,PAN与FPN网络正好相反,是一个倒金字塔结构,自底向上传达强定位特征。两者相互结合。



    二,增加小目标的配置文件

    # parameters
    nc: 1  # number of classes
    depth_multiple: 1.0  # model depth multiple
    width_multiple: 1.0  # layer channel multiple
    
    # anchors
    anchors:
      - [5,6, 8,14, 15,11]  #4
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, BottleneckCSP, [128]],   #160*160
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, BottleneckCSP, [256]],  #80*80
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, BottleneckCSP, [512]], #40*40
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, BottleneckCSP, [1024, False]],  # 9   20*20
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],  #20*20
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #40*40
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 13     40*40
    
       [-1, 1, Conv, [512, 1, 1]], #40*40
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3   80*80
       [-1, 3, BottleneckCSP, [512, False]],  # 17 (P3/8-small)  80*80
    
       [-1, 1, Conv, [256, 1, 1]], #18  80*80
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #19  160*160
       [[-1, 2], 1, Concat, [1]], #20 cat backbone p2  160*160
       [-1, 3, BottleneckCSP, [256, False]], #21 160*160
    
       [-1, 1, Conv, [256, 3, 2]],  #22   80*80
       [[-1, 18], 1, Concat, [1]], #23 80*80
       [-1, 3, BottleneckCSP, [256, False]], #24 80*80
    
       [-1, 1, Conv, [256, 3, 2]], #25  40*40
       [[-1, 14], 1, Concat, [1]],  # 26  cat head P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 27 (P4/16-medium) 40*40
    
       [-1, 1, Conv, [512, 3, 2]],  #28  20*20
       [[-1, 10], 1, Concat, [1]],  #29 cat head P5  #20*20
       [-1, 3, BottleneckCSP, [1024, False]],  # 30 (P5/32-large)  20*20
    
       [[21, 24, 27, 30], 1, Detect, [nc, anchors]],  # Detect(p2, P3, P4, P5)
      ]
    
    

    可以看到,主要对两个地方进行了修改
    1.初始Anchor设置

    # anchors
    anchors:
      - [5,6, 8,14, 15,11]  #4
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    

    这里的修改,主要是增加了一组Anchor;在这里没什么要求,只要数值小一点就行
    2.检测头部

    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],  #20*20
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #40*40
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 13     40*40
    
       [-1, 1, Conv, [512, 1, 1]], #40*40
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3   80*80
       [-1, 3, BottleneckCSP, [512, False]],  # 17 (P3/8-small)  80*80
    
       [-1, 1, Conv, [256, 1, 1]], #18  80*80
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #19  160*160
       [[-1, 2], 1, Concat, [1]], #20 cat backbone p2  160*160
       [-1, 3, BottleneckCSP, [256, False]], #21 160*160
    
       [-1, 1, Conv, [256, 3, 2]],  #22   80*80
       [[-1, 18], 1, Concat, [1]], #23 80*80
       [-1, 3, BottleneckCSP, [256, False]], #24 80*80
    
       [-1, 1, Conv, [256, 3, 2]], #25  40*40
       [[-1, 14], 1, Concat, [1]],  # 26  cat head P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 27 (P4/16-medium) 40*40
    
       [-1, 1, Conv, [512, 3, 2]],  #28  20*20
       [[-1, 10], 1, Concat, [1]],  #29 cat head P5  #20*20
       [-1, 3, BottleneckCSP, [1024, False]],  # 30 (P5/32-large)  20*20
    
       [[21, 24, 27, 30], 1, Detect, [nc, anchors]],  # Detect(p2, P3, P4, P5)
      ]
    
    

    在这一部分,主要增加了几个操作层,在第17层后,继续对特征图进行上采样等处理,使得特征图继续扩大,同时在第20层时,将获取到的大小为160X160的特征图与骨干网络中第2层特征图进行concat融合,以此获取更大的特征图进行小目标检测。
    在第31层,即检测层,增加小目标检测层,一共使用四层[21, 24, 27, 30]进行检测。
    在增加检测层后,带来的问题就是计算量增加,导致推理检测速度降低。不过对于小目标,确实有很好的改善。



    三,检测效果

    解释:为了测试性能,将一张包含众多文本目标的图像,复制四份,拼接成一张大图,原始图像尺寸达到7503X5588。输入测试网络尺寸为640X640大小。

    增加小目标检测层后,对于小目标具有更好的检测效果!

    更多相关内容
  • YOLOv5增加小目标检测层

    采用增加小目标检测层的方式来使YOLOv5能够检测小目标,只需要修改models下的yaml文件中的内容即可。

    主要改变如下:

    原yaml:

    # parameters
    nc: 80  # number of classes
    depth_multiple: 0.33  # model depth multiple
    width_multiple: 0.50  # layer channel multiple
    
    # anchors
    anchors:
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, C3, [128]],
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, C3, [256]],
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, C3, [512]],
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, C3, [1024, False]],  # 9
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, C3, [512, False]],  # 13
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],  # cat head P4
       [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]
    

    改变后的yaml:

    # parameters
    nc: 10  # number of classes
    depth_multiple: 0.33  # model depth multiple
    width_multiple: 0.50  # layer channel multiple
    
    # anchors
    anchors:
      - [5,6, 8,14, 15,11]
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, C3, [128]],
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, C3, [256]],
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, C3, [512]],
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, C3, [1024, False]],  # 9
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, C3, [512, False]],  # 13
    
       [-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, C3, [512, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 2], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 18], 1, Concat, [1]],  # cat head P4
       [-1, 3, C3, [256, False]],  # 20 (P4/16-medium)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],
       [-1, 3, C3, [512, False]],
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
    
       [[21, 24, 27, 30], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]
    

    主要改变了两个地方:anchors和head

    (1)anchors

    原yaml:
    anchors:
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    改变后yaml:
    anchors:
      - [5,6, 8,14, 15,11]
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32

    (2)head

    原yaml:
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],                  # 第一段
       [-1, 3, C3, [512, False]],  
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],                  # 第二段
       [-1, 3, C3, [256, False]],  
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],                 # 第三段
       [-1, 3, C3, [512, False]],  
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],                 # 第四段
       [-1, 3, C3, [1024, False]],  
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],   # 第五段
      ]
    
    
    改变后yaml:
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],                  # 第一段
       [-1, 3, C3, [512, False]],  
    
       [-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],                  # 在第一段和第二段之间加入一段
       [-1, 3, C3, [512, False]],  
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 2], 1, Concat, [1]],                  # 将第二段这个地方的4改成2
       [-1, 3, C3, [256, False]],  
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 18], 1, Concat, [1]],                 # 在第二段和第三段之间加入一段
       [-1, 3, C3, [256, False]],  
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],                 # 第三段
       [-1, 3, C3, [512, False]],  
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],                 # 第四段
       [-1, 3, C3, [1024, False]],  
    
       [[21, 24, 27, 30], 1, Detect, [nc, anchors]], #将第五段[17, 20, 23]改成[21, 24, 27, 30]
      ]
    
    

    这样就改好了。

    注释:在yolov5的6.0版本作者将CSP换为C3,YOLOv5 2020年5月出来后不断更新,不断实践,设计出C3模块用来替换BottleneckCSP模块。当然这是作者在COCO等特定数据集上进行实验得出的,如果大家要进行迁移,也可以考虑不替换。二者的网络结构如下:

    可以看出C3相对于BottleneckCSP模块,少了一个1x1 conv,同时撤掉了一个BN层和激活函数。
     

    参考文献:

    YOLOv5改进—增加小目标检测层_加勒比海带66的博客-CSDN博客_yolov5增加小目标检测层

    yolov5增加小目标检测层

    YOLOV5网络结构设计的思考_奔跑的阿诺的博客-CSDN博客_网络架构设计

    展开全文
  • 前面我们写了yolov5添加了小目标检测层,并完成了tensorrt部署,现在我们使用opencv进行部署。 TensorRT+yolov5:yolov5添加小目标检测层_zhangdaoliang1的博客-CSDN博客...

    前面我们写了yolov5添加了小目标检测层,并完成了tensorrt部署,现在我们使用opencv进行部署。

    TensorRT+yolov5:yolov5添加小目标检测层_zhangdaoliang1的博客-CSDN博客https://blog.csdn.net/zhangdaoliang1/article/details/122881284?spm=1001.2014.3001.5502模型结构图:

    代码:

    yolo.cpp

    
                                            
    展开全文
  • YOLOv5改进—增加小目标检测层

    千次阅读 2022-06-01 11:14:57
    1.YOLOv5算法简介YOLOv5主要由输入端、Backone、Neck以及Prediction四部分组成。其中:(1) Backbone:在不同图像细粒度上聚合并形成图像特征的卷积神经网络。(2) Neck:一系列混合和组合图像特征的网络,并将图像...

    小目标检测一直以来是CV领域的难点之一,那么,YOLOv5该如何增加小目标检测层呢?


    YOLOv5代码修改————针对微小目标检测


    1.YOLOv5算法简介

    YOLOv5主要由输入端、Backone、Neck以及Prediction四部分组成。其中:

    (1) Backbone:在不同图像细粒度上聚合并形成图像特征的卷积神经网络。

    (2) Neck:一系列混合和组合图像特征的网络层,并将图像特征传递到预测层。

    (3) Head: 对图像特征进行预测,生成边界框和并预测类别。

    检测框架:

    2.原始YOLOv5模型

    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, C3, [512, False]],  # 13
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],  # cat head P4
       [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]

    若输入图像尺寸=640X640,

    # P3/8 对应的检测特征图大小为80X80,用于检测大小在8X8以上的目标。

    # P4/16对应的检测特征图大小为40X40,用于检测大小在16X16以上的目标。

    # P5/32对应的检测特征图大小为20X20,用于检测大小在32X32以上的目标。

    3.增加小目标检测层

    # parameters
    nc: 1  # number of classes
    depth_multiple: 0.33  # model depth multiple
    width_multiple: 0.50  # layer channel multiple
    
    # anchors
    anchors:
      - [5,6, 8,14, 15,11]  #4
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, BottleneckCSP, [128]],   #160*160
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, BottleneckCSP, [256]],  #80*80
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, BottleneckCSP, [512]], #40*40
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, BottleneckCSP, [1024, False]],  # 9   20*20
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],  #20*20
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #40*40
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 13     40*40
    
       [-1, 1, Conv, [512, 1, 1]], #40*40
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3   80*80
       [-1, 3, BottleneckCSP, [512, False]],  # 17 (P3/8-small)  80*80
    
       [-1, 1, Conv, [256, 1, 1]], #18  80*80
       [-1, 1, nn.Upsample, [None, 2, 'nearest']], #19  160*160
       [[-1, 2], 1, Concat, [1]], #20 cat backbone p2  160*160
       [-1, 3, BottleneckCSP, [256, False]], #21 160*160
    
       [-1, 1, Conv, [256, 3, 2]],  #22   80*80
       [[-1, 18], 1, Concat, [1]], #23 80*80
       [-1, 3, BottleneckCSP, [256, False]], #24 80*80
    
       [-1, 1, Conv, [256, 3, 2]], #25  40*40
       [[-1, 14], 1, Concat, [1]],  # 26  cat head P4  40*40
       [-1, 3, BottleneckCSP, [512, False]],  # 27 (P4/16-medium) 40*40
    
       [-1, 1, Conv, [512, 3, 2]],  #28  20*20
       [[-1, 10], 1, Concat, [1]],  #29 cat head P5  #20*20
       [-1, 3, BottleneckCSP, [1024, False]],  # 30 (P5/32-large)  20*20
    
       [[21, 24, 27, 30], 1, Detect, [nc, anchors]],  # Detect(p2, P3, P4, P5)
      ]
    
    

    # 新增加160X160的检测特征图,用于检测4X4以上的目标。

    改进后,虽然计算量和检测速度有所增加,但对小目标的检测精度有明显改善。

    展开全文
  • yolov5增加一层小目标检测层
  • YOLOv5改进之六:增加小目标检测层

    千次阅读 2022-06-21 15:57:42
    前 言:作为当前先进的深度学习目标检测算法YOLOv5,已经...解决问题:YOLOv5小目标检测效果不好的一个原因是因为小目标样本的尺寸较小,而yolov5的下采样倍数比较大,较深的特征图很难学习到小目标的特征信息。......
  • YOLOV5yolov5增加检测层

    千次阅读 热门讨论 2022-04-01 14:26:40
    博主所更改的YOLOV5版本为6.1 修改后的配置文件./data/yolov5-l.yaml # YOLOv5 by Ultralytics, GPL-3.0 license # Parameters nc: 10 # number of classes depth_multiple: 1.0 # model depth multiple width_...
  • TensorRT+yolov5:yolov5添加小目标检测层

    千次阅读 2022-02-11 15:13:52
    yolov5出来已经很长时间了,所以有关yolov5的一些详细介绍在这里就不一一介绍了,模型结构大家可以查看我之前画的yolov5-5yolov6-6的模型结构图。 yolov5s-6.0网络模型结构图_zhangdaoliang1的博客-CSDN博客...
  • TensorRT+yolov5:yolov5添加小目标检测层2--TensorRT部署

    千次阅读 热门讨论 2022-02-11 17:43:12
    前面我们在yolov5添加了小目标检测层,进行了训练,但是训练的次数也不是很多,接下来我们使用tensorrt进行四个检测头的yolov5部署。具体如何添加小目标检测层可以查看我上一篇文章。 TensorRT+yolov5:yolov5添加...
  • Yolov5小目标检测【一】

    千次阅读 2022-06-15 21:19:49
    Yolov5小目标检测
  • YOLOV5小目标检测网络结构优化方法汇总(附代码)

    万次阅读 多人点赞 2022-01-08 00:33:07
    点击上方“3D视觉工坊”,选择“星标”干货第一时间送达作者丨南山来源丨AI约读社YOLOv5是一种非常受欢迎的单阶段目标检测,以其性能和速度著称,其结构清晰灵活。虽然 yolov5是一个...
  • yolov5小目标检测-提高检测小目标的检测精度

    万次阅读 多人点赞 2022-04-15 21:55:02
    本次分享的就是最近刚刚发布的基于企业开发需要而产生的yolov5(因为相关论文还没有发表,所以本文不过分讲解其中原理,可...以下会详细介绍yolov5的下载安装和使用技巧以及如何使用自己的数据集进行小目标检测工作。
  • YOLOV7改进--增加小目标检测层

    千次阅读 热门讨论 2022-07-21 21:01:06
    YOLOV7改进--增加小目标检测层
  • yolov5检测小目标(附源码)

    千次阅读 多人点赞 2022-05-26 14:38:17
    yolov5小目标检测(图像切割法) 前言 yolov5大家都熟悉,通用性很强,但针对一些小目标检测的效果很差。 YOLOv5算法在训练模型的过程中,默认设置的图片大小为640640像素,为了检测小目标时,如果只是简单地将img-...
  • yolov5 yolov7 目标检测网络改进:引入特征细化网络,重建检测颈部网络,层层递进解决小目标检测问题
  • 简单粗暴提升yolov5小目标检测能力

    千次阅读 2022-08-29 15:03:13
    左侧是yolov5原始模型的网络架构,右图则是增加SPD结构的yolov5网络架构,其中红框部分就是两网络的区别之处。在原文中作者还将该结构应用在分类模型上,分类性能上也有一定的提升,感兴趣的可以看看原文。...
  • 本研究探讨了如何修改流行的YOLOv5目标检测器以提高其在检测较对象方面的性能,特别是在自主赛车中的应用。为了实现这一点,研究者研究了替换模型的某些结构元素(以及它们的连接和其他参数)如何影响性能和推理...
  • Yolov5小目标检测
  • 睿智的目标检测56——Pytorch搭建YoloV5目标检测平台

    万次阅读 多人点赞 2021-11-30 10:31:44
    睿智的目标检测56——Pytorch搭建YoloV5目标检测平台学习前言源码下载YoloV5改进的部分(不完全)YoloV5实现思路一、整体结构解析二、网络结构解析1、主干网络Backbone介绍2、构建FPN特征金字塔进行加强特征提取3、...
  • 选择加"星标"或“置顶”重磅干货,第一时间送达本文在YOLOv5的基础上加入了一些新的技术,比如ViT、CBAM和一些Tricks(数据增广、多尺度测试等),最终命名为TPH-YOLOv5目标检测器,比较适合无人机目标的检测和...
  • Custom Object Detection Training using YOLOv5 | LearnOpenCV使用 YOLOv5 进行自定义目标检测训练Table of Contents1.Introduction2.What is YOLOv5?1.Models Available in YOLOv52.Features Provided by YOLOv53....
  • 工业领域目标检测模型修改
  • TensorRT+yolov5:yolov5添加小目标检测层2--TensorRT部署_曲末寒的博客-CSDN博客_yolov5加检测头。可以看到整体的map@0.5是在0.501,,,说实话并不是特别高,,,回头我们重新计算下测试集的Map..后续会进行...
  • 点击上方“3D视觉工坊”,选择“星标”干货第一时间送达作者丨ChaucerG来源丨集智书童随着自动驾驶汽车和自动赛车越来越受欢迎,对更快、更准确的检测器的需求也越来越大。但对机器来说图像分...
  • YOLOv5-目标检测

    2022-01-14 10:29:31
    YOLOv5是一种单阶段目标检测算法,该算法在YOLOv4的基础上添加了一些新的改进思路,使其速度与精度都得到了极大的性能提升。主要的改进思路如下所示: 1>输入端:在模型训练阶段,提出了一些改进思路,主要包括...
  • Mosaic数据增强提出的作者也是来自Yolov5团队的成员,不过,随机缩放、随机裁剪、随机排布的方式进行拼接,对于小目标检测效果还是很不错的。 算法优点:在Yolo算法中,针对不同的数据集,都会有初始设定长宽的锚...
  • 交通标志识别》《YOLOv3目标检测:原理与源码解析》在学习课程《YOLOv3目标检测实战:网络模型改进方法》前,建议先学习课程《YOLOv3目标检测实战:训练自己的数据集》和课程《YOLOv3目标检测实战:交通标志识别》之...
  • 使用YOLOv3实现目标检测
  • 睿智的目标检测57——Tensorflow2 搭建YoloV5目标检测平台学习前言源码下载YoloV5改进的部分(不完全)YoloV5实现思路一、整体结构解析二、网络结构解析1、主干网络Backbone介绍2、构建FPN特征金字塔进行加强特征...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,323
精华内容 1,729
热门标签
关键字:

yolov5增加小目标检测层