精华内容
下载资源
问答
  • yolov3论文

    2018-10-14 19:05:51
    yolov3论文,详细的讲解了yolo的原理,值得一看!
  • DL之YoloV3:YoloV3论文《YOLOv3: An Incremental Improvement》的翻译与解读 目录 YoloV3论文翻译与解读 Abstract 1. Introduction 2. The Deal YoloV3论文翻译与解读 Abstract We present some...

    DL之YoloV3:YoloV3论文《YOLOv3: An Incremental Improvement》的翻译与解读

     

     

    目录

    YoloV3论文翻译与解读

    Abstract

    1. Introduction

    2. The Deal


     

     

    论文地址https://arxiv.org/pdf/1804.02767.pdf

    YoloV3论文翻译与解读

    Abstract

           We present some updates to YOLO! We made a bunch of little design changes to make it better. We also trained this new network that’s pretty swell. It’s a little bigger than last time but more accurate. It’s still fast though, don’t worry. At 320 × 320 YOLOv3 runs in 22 ms at 28.2 mAP, as accurate as SSD but three times faster. When we look at the old .5 IOU mAP detection metric YOLOv3 is quite good. It achieves 57.9 AP50 in 51 ms on a Titan X, compared to 57.5 AP50 in 198 ms by RetinaNet, similar performance but 3.8× faster. As always, all the code is online at https://pjreddie.com/yolo/.

           我们对YOLO系列算法进行一些最新情况介绍!我们做了一些小的设计更改以使它更好。我们还培训了这个非常棒的新网络。比上次大一点,但更准确。不过还是很快,别担心。在320×320处,Yolov3在22毫秒内以28.2 mAP的速度运行,与SSD一样精确,但速度快了三倍。当我们看到旧的.5 IOU地图检测标准yolov3是相当不错的。在Titan X上,51 ms内可达到57.9 AP50,而在198 ms内,Retinanet可达到57.5 AP50,性能相似,但速度快3.8倍。与往常一样,所有代码都在 https://pjreddie.com/yolo/.

     

    1. Introduction

           Sometimes you just kinda phone it in for a year, you know? I didn’t do a whole lot of research this year. Spent a lot of time on Twitter. Played around with GANs a little. I had a little momentum left over from last year [12] [1]; I managed to make some improvements to YOLO. But, honestly, nothing like super interesting, just a bunch of small changes that make it better. I also helped out with other people’s research a little. Actually, that’s what brings us here today. We have a camera-ready deadline [4] and we need to cite some of the random updates I made to YOLO but we don’t have a source. So get ready for a TECH REPORT! The great thing about tech reports is that they don’t need intros, y’all know why we’re here. So the end of this introduction will signpost for the rest of the paper. First we’ll tell you what the deal is with YOLOv3. Then we’ll tell you how we do. We’ll also tell you about some things we tried that didn’t work. Finally we’ll contemplate what this all means.

           有时候你只需要打一年电话就行了,你知道吗?今年我没有做很多研究。在Twitter上花了很多时间。和GANs 玩了一会儿。去年我有一点动力,我设法对YOLO做了一些改进。但是,老实说,没有什么比这更有趣的了,只是一些小的改变让它变得更好。我也在其他人的研究上做了一点帮助。事实上,这就是我们今天来到这里的原因。我们有一个摄像头准备就绪的最后期限[4],我们需要引用我对Yolo所做的一些随机更新,但我们没有来源。所以准备一份技术报告吧!关于技术报告,最重要的是他们不需要介绍,你们都知道为什么我们会在这里。因此,本导言的结尾将为论文的其余部分做上标记。首先,我们会告诉你YOLOV3上处理了什么。然后我们会告诉你我们是怎么做的。我们也会告诉你一些我们尝试过但不起作用的事情。最后,我们将思考这一切意味着什么。

    2. The Deal

        So here’s the deal with YOLOv3: We mostly took good ideas from other people. We also trained a new classifier network that’s better than the other ones. We’ll just take you through the whole system from scratch so you can understand it all.

         所以YOLOv3是这样的:我们主要从别人那里获得好主意。我们还训练了一个新的分类器网络,它比其他分类器更好。我们将从头开始介绍整个系统,这样您就能理解所有内容。

          Figure 1. We adapt this figure from the Focal Loss paper [9]. YOLOv3 runs significantly faster than other detection methods with comparable performance. Times from either an M40 or Titan X, they are basically the same GPU.

            图1.我们根据Focal Loss报告[9]调整了这个数字。Yolov3的运行速度明显快于其他具有类似性能的检测方法。从M40或Titan X获得的时间,都是基于相同的GPU。

     

    2.1. Bounding Box Prediction

           Following YOLO9000 our system predicts bounding boxes using dimension clusters as anchor boxes [15]. The network predicts 4 coordinates for each bounding box, tx, ty, tw, th. If the cell is offset from the top left corner of the image by (cx, cy) and the bounding box prior has width and height pw, ph, then the predictions correspond to:

          按照YOLO9000,我们的系统预测使用维度集群作为锚定框[15]的边界框。网络为每个边界框预测4个坐标,分别为tx、ty、tw、th。如果单元格距图像左上角偏移(cx, cy),且边界框先验有宽和高pw, ph,则预测对应:

         During training we use sum of squared error loss. If the ground truth for some coordinate prediction is tˆ * our gradient is the ground truth value (computed from the ground truth box) minus our prediction: tˆ * − t* . This ground truth value can be easily computed by inverting the equations above.

         在训练中,我们使用误差损失的平方和。如果地面真理协调预测tˆ*我们的梯度是地面真值(从地面实况框计算)-我们的预测:tˆ*−t *。这一地面真值可以很容易地计算通过反演上述方程。

           Figure 2. Bounding boxes with dimension priors and location prediction. We predict the width and height of the box as offsets from cluster centroids. We predict the center coordinates of the box relative to the location of filter application using a sigmoid function. This figure blatantly self-plagiarized from [15].
          图2.带有尺寸优先和位置预测的边界框。我们预测了盒子的宽度和高度作为与簇形心的偏移。我们使用一个sigmoid函数来预测盒子相对于过滤器应用程序位置的中心坐标。这个数字公然自抄自[15]。

     

         YOLOv3 predicts an objectness score for each bounding box using logistic regression. This should be 1 if the bounding box prior overlaps a ground truth object by more than any other bounding box prior. If the bounding box prior is not the best but does overlap a ground truth object by more than some threshold we ignore the prediction, following [17]. We use the threshold of .5. Unlike [17] our system only assigns one bounding box prior for each ground truth object. If a bounding box prior is not assigned to a ground truth object it incurs no loss for coordinate or class predictions, only objectness.

         YOLOv3使用逻辑回归预测每个边界框的客观得分。如果边界框先验与地面真值对象的重叠超过任何其他边界框先验,则该值应为1。如果边界框先验不是最好的,但是重叠了超过某个阈值的地面真值对象,我们忽略预测,跟随[17]。我们使用的阈值是。5。与[17]不同的是,我们的系统只为每个地面真值对象分配一个边界框。如果一个边界框先验没有分配给一个地面真值对象,它不会导致坐标或类预测的损失,只会导致对象性的损失。

     

    2.2. Class Prediction

         Each box predicts the classes the bounding box may contain using multilabel classification. We do not use a softmax as we have found it is unnecessary for good performance, instead we simply use independent logistic classifiers. During training we use binary cross-entropy loss for the class predictions. This formulation helps when we move to more complex domains like the Open Images Dataset [7]. In this dataset there are many overlapping labels (i.e. Woman and Person). Using a softmax imposes the assumption that each box has exactly one class which is often not the case. A multilabel approach better models the data.

          每个框使用多标签分类预测边界框可能包含的类。我们没有使用softmax,因为我们发现它对于良好的性能是不必要的,相反,我们只是使用独立的逻辑分类器。在训练过程中,我们使用二元交叉熵损失进行类预测。当我们移动到更复杂的领域,比如开放图像数据集[7]时,这个公式会有所帮助。在这个数据集中有许多重叠的标签(即女人和人)。使用softmax会假定每个框只有一个类,而通常情况并非如此。多标签方法可以更好地对数据建模。

     

    2.3. Predictions Across Scales

         YOLOv3 predicts boxes at 3 different scales. Our system extracts features from those scales using a similar concept to feature pyramid networks [8]. From our base feature extractor we add several convolutional layers. The last of these predicts a 3-d tensor encoding bounding box, objectness, and class predictions. In our experiments with COCO [10] we predict 3 boxes at each scale so the tensor is N × N × [3 ∗ (4 + 1 + 80)] for the 4 bounding box offsets, 1 objectness prediction, and 80 class predictions.

          YOLOv3预测了三种不同尺度的盒子。我们的系统从这些尺度中提取特征,使用类似于特征金字塔网络[8]的概念。从我们的基本特征提取器,我们添加了几个卷积层。最后一个预测了一个三维张量编码的边界框、对象和类预测。在COCO[10]的实验中,我们在每个尺度上预测3个盒子,因此对于4个边界盒偏移量、1个对象预测和80个类预测,张量是N×N×[3(4 + 1 + 80)]。

           Next we take the feature map from 2 layers previous and upsample it by 2×. We also take a feature map from earlier in the network and merge it with our upsampled features using concatenation. This method allows us to get more meaningful semantic information from the upsampled features and finer-grained information from the earlier feature map. We then add a few more convolutional layers to process this combined feature map, and eventually predict a similar tensor, although now twice the size. We perform the same design one more time to predict boxes for the final scale. Thus our predictions for the 3rd scale benefit from all the prior computation as well as finegrained features from early on in the network. We still use k-means clustering to determine our bounding box priors. We just sort of chose 9 clusters and 3 scales arbitrarily and then divide up the clusters evenly across scales. On the COCO dataset the 9 clusters were: (10×13),(16×30),(33×23),(30×61),(62×45),(59× 119),(116 × 90),(156 × 198),(373 × 326).

           接下来,我们从之前的两层中提取特征图,并将其向上采样2×。我们还从网络的早期获取一个feature map,并使用连接将其与我们的上采样特性合并。该方法允许我们从上采样的特征中获取更有意义的语义信息,并从早期的特征图中获取更细粒度的信息。然后,我们再添加几个卷积层来处理这个组合的特征图,并最终预测出一个类似的张量,尽管现在张量是原来的两倍。我们再次执行相同的设计来预测最终规模的盒子。因此,我们对第三尺度的预测得益于所有的先验计算以及网络早期的细粒度特性。我们仍然使用k-means聚类来确定我们的边界框先验。我们只是随意选择了9个簇和3个尺度然后在尺度上均匀地划分簇。在COCO数据集中,9个簇分别为(10×13)、(16×30)、(33×23)、(30×61)、(62×45)、(59×119)、(116×90)、(156×198)、(373×326)。

     

    2.4. Feature Extractor

          We use a new network for performing feature extraction. Our new network is a hybrid approach between the network used in YOLOv2, Darknet-19, and that newfangled residual network stuff. Our network uses successive 3 × 3 and 1 × 1 convolutional layers but now has some shortcut connections as well and is significantly larger. It has 53 convolutional layers so we call it.... wait for it..... Darknet-53!

          我们使用一个新的网络来进行特征提取。我们的新网络是YOLOv2、Darknet-19中使用的网络和新颖的剩余网络之间的混合方法。我们的网络使用连续的3×3和1×1卷积层,但现在也有一些快捷连接,而且明显更大。它有53个卷积层。等待.....Darknet-53 !

         This new network is much more powerful than Darknet- 19 but still more efficient than ResNet-101 or ResNet-152. Here are some ImageNet results:

    Table 2. Comparison of backbones. Accuracy, billions of operations, billion floating point operations per second, and FPS for various networks.
    表2,backbones的比较,精确度,数十亿次运算,每秒数十亿次浮点运算,以及各种网络的FPS。

          Each network is trained with identical settings and tested at 256×256, single crop accuracy. Run times are measured on a Titan X at 256 × 256. Thus Darknet-53 performs on par with state-of-the-art classifiers but with fewer floating point operations and more speed. Darknet-53 is better than ResNet-101 and 1.5× faster. Darknet-53 has similar performance to ResNet-152 and is 2× faster. Darknet-53 also achieves the highest measured floating point operations per second. This means the network structure better utilizes the GPU, making it more efficient to evaluate and thus faster. That’s mostly because ResNets have just way too many layers and aren’t very efficient.

           每个网络都以相同的设置进行训练,并以256×256的单次裁剪精度进行测试。运行时间是在泰坦X上以256×256的速度测量的。因此,Darknet-53的性能与最先进的分类器相当,但浮点运算更少,速度更快。Darknet-53比ResNet-101好,并且1.5×更快。Darknet-53的性能与ResNet-152相似,并且速度是后者的2倍。Darknet-53还实现了每秒最高的浮点运算。这意味着网络结构更好地利用GPU,使其更有效地评估,从而更快。这主要是因为ResNets层太多,效率不高。

     

    2.5. Training

         We still train on full images with no hard negative mining or any of that stuff. We use multi-scale training, lots of data augmentation, batch normalization, all the standard stuff. We use the Darknet neural network framework for training and testing [14].

         我们仍然训练完整的图像没有硬负面挖掘或任何东西。我们使用多尺度训练,大量的数据扩充,批量标准化,所有标准的东西。我们使用Darknet神经网络框架来训练和测试[14]。

     

     

     

    展开全文
  • YOLOV3论文高清

    2018-04-24 14:29:24
    YOLOV3论文高清, YOLO目标识别领域最具潜力的深度学习算法
  • YOLOv3论文翻译

    2021-04-19 21:10:13
  • YOLOv3论文解读

    2020-06-07 15:57:18
    YOLOv3论文解读 论文地址: https://arxiv.org/pdf/1804.02767.pdf 代码实现: 作者本人: https://pjreddie.com/darknet/yolo/ github:pytorch 简易版:https://github.com/eriklindernoren/PyTorch-YOLOv3 github...

    YOLOv3论文解读

    论文地址:

    https://arxiv.org/pdf/1804.02767.pdf

    代码实现:

    作者本人: https://pjreddie.com/darknet/yolo/
    github:pytorch 简易版:https://github.com/eriklindernoren/PyTorch-YOLOv3
    github:keras版:https://github.com/qqwweee/keras-yolo3

    一、概述

    YOLOv3原文:《YOLOv3: An Incremental Improvement》,是作者Joseph Redmon的封山之作。根据Twitter上的一则消息,因为YOLO开源算法被用于军事和隐私问题上,对他的道德造成巨大考验,所以他已经停止了一切CV的研究。下面是从量子位公众号截取的一张作者推特发文截图。大家对此都深感惋惜。好在另一位研究者接手了YOLO的研究成果,继续推出了YOLOv4。科学研究本无国界与对错,希望科研成果都能用在好的方面,同时我们也应该尊重每一位科研人的选择。
    YOLO作者停止CV研究
    YOLOv3一出,作者自己的网站:https://pjreddie.com/darknet/yolo/关于YOLOv1和YOLOv2的代码实现也已经消失不见。作者认为已经没有理由去继续使用YOLOv1和YOLOv2,因为YOLOv3的提升已经可以取代前面两者的工作。但是作为研究者向入手学习YOLO,前两篇文章中的方法和思想阅读并不可少,因为很多工作都是基于前面的改进。YOLOv3论文相比于前两篇也更加短小,算上参考文献在内仅有6页,作者的写作风格也愈发随意,它本人也更愿意把这篇文献称为这一年里自己的工作总结,各部分内容都十分精简,读摘要仿佛在听讲故事。以下两段节选自论文Abstract和结尾:
    YOLOv3摘要
    YOLOv3结尾
    读完这一段哀伤的文字,里面有着作者强烈的情绪表达。作者交代了一年的工作,在论文里给读者say goodbye。

    二、YOLOv3的改进

    作者在开头提出自己花了许多时间在推特上,也会去关注一下GANs的动态,同时帮助其他同事进行一些科研,自己仅用上一年残留的动力做了一些YOLO的改进。他自己认为这些改进并不十分有趣,但是从工程上来说让YOLO更好了。
    作者对YOLOv3的自我评价
    YOLOv3相比于YOLOv2的改进在于以下几点。

    • 分类器改变。将softmax去除,而使用独立的逻辑回归分类器。
    • 损失函数的改进。训练中使用二分类交叉熵损失函数来进行分类。
    • 特征提取器(也叫Backbone)改进。使用了新的Darknet-53替代Darknet-19.(这也是最大的变化)。
    • 不同尺度的输出。YOLOv3中输出了三个不同尺度的feature map。这一点借鉴了FPN(feature pyramid networks)对不同大小的目标进行检测,因此对小物体的检测更加好了(不幸的是对大物体的检测性能由略微下降)。

    三、Darknet-53

    Darknet-53模型结构
    该模型借鉴了ResNet引入了残差结构,使得模型可以更深而不会出现梯度消失问题。同时和ResNet-101或者ResNet-152相比又没有那么庞大,性能几乎持平。虽然相比于Darknet-19的速度不到一半,但是确实获得了性能上的提升。在论文以外的官网实现部分,作者也提供了切换Backbone的方式,让读者自行在准确度和效率上进行权衡。
    Darknet与Resnet的对比
    综上,我们可以看到YOLOv3相对于YOLOv2更多的是工程上的改进,而算法思想保持不变。通过引入别人比较新的研究成果(残差网络等)来改善自己的网络结构等。

    三、一些失败的尝试

    作者也列举了出了一些尝试改进YOLOv3但是失败了的方式。

    • 使用普通的anchor box机制来预测x,y坐标:作者试图使用一个线性激活函数来预测x,y偏移量来确定多个boxes的宽高从而替换原有的逻辑归回预测机制,结果对模型的稳定性造成了影响。
    • 使用焦点损失来替换当前的损失函数:模型mAP下降2%,作者并不确定原因,可能是YOLOv3的鲁棒性已经解决了焦点损失尝试解决的问题,因为YOLOv3已经将目标物体检测和分类预测两项工作分开。
    • 尝试使用双IOU阈值:即类似于Faster R-CNN中,大于0.7为一个正面的例子,0.3-0.7之间直接忽略,而小于0.3为反例。这一机制在YOLO中并没有取得好的效果。

    四、总结

    文章的末尾,作者希望YOLO能够被用在让人开心的地方,例如在人们逛动物园时,能够通过相机识别斑马,或者能够追踪家里的猫跑来跑去。这一美好的愿望被制作为视频放在YOLO的首页上,视频内部分截图如下。作者极力反对计算机视觉被用于军事和隐私窃取,但他无法阻止这种行为,于是在文章末尾宣布退出。
    YOLO首页视频截图1
    YOLO首页视频截图2
    YOLO首页视频截图3

    参考文献

    YOLO官网:https://pjreddie.com/darknet/yolo/
    YOLOv3原文:https://arxiv.org/pdf/1804.02767.pdf

    展开全文
  • YOLOV3论文解读与应用

    2020-07-22 14:15:30
    YOLOV3论文解读与应用mobilenetv1论文地址:参考博客:模型特点:优点缺点mobilenetv2论文地址:参考博客:模型特点:mobilenetv3论文地址:参考博客:模型特点:参考博客深度学习MobileNet——深刻解读MobileNet网络结构 ...

    YOLOV3

    目标检测相关博客查看CV综述目标检测整理—目录

    论文地址:

    MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications @20170417

    源码地址:

    (torchpy36) air@air-System-Product-Name:~/model-train/yolo/yolov3/ultralytics-yolov3$ python train.py
    

    参考博客:

    yolo系列之yolo v3【深度解析】
    【深度学习MobileNet】——深刻解读MobileNet网络结构

    模型特点:

    • backbone全卷积,无池化层
    • residual conv

    优点

    • 深度可分离卷积depthwise-conv 代替普通卷积
    • pointwise conv
    • 共28层

    缺点

    yolov3-spp

    论文地址:

    MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications @20190321

    源码地址: darknet

    pytorch: ultralytics-yolov3
    需要apex,提供混合精度模型训练,降低训练所需要的GPU资源
    nvidia-apex apex
    训练yolov3-spp: coco2017数据

    (torchpy36) air@air-System-Product-Name:~/model-train/yolo/yolov3/ultralytics-yolov3$ python train.py
    

    参考博客:

    轻量级模型:MobileNet V2
    MobileNet V2 论文初读
    在这里插入图片描述
    在这里插入图片描述

    模型特点:

    • Linear Bottleneck
    • Inverted Residuals
    • relu6
    • 54层

    *****

    论文地址:

    MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications @20170417

    参考博客:

    【深度学习MobileNet】——深刻解读MobileNet网络结构

    模型特点:

    • 深度可分离卷积depthwise-conv 代替普通卷积
    • pointwise conv

    参考博客

    深度学习MobileNet——深刻解读MobileNet网络结构
    MobileNet v1、v2

    Focal Loss for Dense Object Detection解读
    RetinaNet: Focal loss在目标检测网络中的应用
    人脸检测:RetinaFace(开源简化版)详细解读

    论文解读

    论文地址: MobileNets: Efficient Convolutional Neural Networks for Mobile Vision
    Applications@201704

    源码地址:
    tensorflow版本:wanjinchang/SSH-TensorFlow
    相关论文:
    RetinaFace: Single-stage Dense Face Localisation in the Wild@20190504
    人脸检测-RetinaFace论文解读与应用

    FPN
    VGG


    mobilnet0.25轻量级检测

    Base Module
    在这里插入图片描述

    backbone

    检测器 SSH上下文检测模块

    resnet50 和resnet152

    数据准备

    模型训练

    模型压缩

    模型部署

    展开全文
  • yolo,yolov2和yolov3论文原文,属于单阶段目标检测的代表性作品,对检测速度有很大提升,可以细细读一读
  • yoloV3论文解读及应用注意事项

    万次阅读 热门讨论 2018-03-29 13:43:43
    一、yolov3论文解读论文连接地址: 点击打开链接1. yolov3实现的idea1.1 边界框的预测(Bounding Box Prediction)与之前yolo版本一样,yolov3的anchor boxes也是通过聚类的方法得到的。yolov3对每个bounding box...
  • 目标检测:YOLOV3论文解读

    万次阅读 2018-04-19 21:46:44
    一、yolov3论文解读论文连接地址: 点击打开链接1. yolov3实现的idea1.1 边界框的预测(Bounding Box Prediction)与之前yolo版本一样,yolov3的anchor boxes也是通过聚类的方法得到的。yolov3对每个bounding box...
  • 浅尝YOLOv3论文

    2020-10-21 17:59:23
    YOLOv3是2018年发明的算法,并且所发表的论文也较为简短。以下是YOLOv3的网络结构图: 上图三个蓝色方框内表示Yolov3的三个基本组件: (1)CBL:Yolov3网络结构中的最小组件,由Conv+Bn+Leaky_relu激活函数三者...
  • YOLOV3 论文解读

    2020-07-19 17:38:19
    论文YOLOv3: An Incremental Improvement 地址:https://arxiv.org/abs/1804.02767 代码:Pytorch版本 官方版本(c) 来源:arxiv Structure 这篇博客中的图片很好的解释了YOLOV3的结构,我们先从总体上进行介绍...
  • YOLOv3论文笔记

    千次阅读 2018-03-26 18:56:37
    论文地址:YOLOv3: An Incremental Improvement 项目地址:darknet 0x00 Foreword 今天看到YOLOv3发布的信息,第一个反应就是,我×,我之前的模型还没有训练好,现在又出来一个(T_T)。 不过我对于YOLOv3的...
  • YOLOv3论文阅读

    2020-10-10 16:56:56
    YOLOv3增量的改进 You Only Look Once:(创造性的将候选区和对象识别这两个阶段合二为一,看一眼图片(不用看两眼哦)就能知道有哪些对象以及它们的位置)说的是只需要一次CNN运算 实战:使用yolov3完成肺结节...
  • YOLOv3论文理解

    千次阅读 2018-11-19 11:52:47
    论文 - YOLO v3 引自:https://xmfbit.github.io/2018/04/01/paper-yolov3/ 发表于 2018-04-01 ...这篇博客介绍这篇论文YOLOv3: An Incremental Improvement。下面这张图是YOLO V3与RetinaNet的比较。 可...
  • YOLOv3 论文阅读

    2019-05-30 17:42:45
    YOLOv3: An Incremental ImprovementJoseph Redmon, Ali Farhadi University of Washington 我们向YOLO提供了一些更新!我们做了一些设计上的小改动使它变得更好。我们还培训了这个非常棒的新网络。它比上次大了一点...
  • YOLOv3论文翻译讲解

    2020-05-26 18:57:30
    YOLOv3: An Incremental Improvement 论文地址;代码地址 摘要 作者对YOLO进行了进一步的更新,做了一些小设计更改让其表现更好。YOLOv3比YOLOv2相较大了一些,但是检测更加准确,而且检测速度依然很快。320×320 ...
  • 英文版论文原文:https://pjreddie.com/media/files/papers/YOLOv3.pdf YOLOv3:一个渐进的改进 YOLOv3: An Incremental Improvement Joseph Redmon& Jinsong Zhao 华盛顿大学 University of Washington ...
  • YOLOV3论文阅读笔记

    千次阅读 2019-06-11 20:22:42
    一、YOLOV3简介   YOLOV3的内容很少,正如作者在文中所说这篇仅仅是一个TECH REPORT。简单的说来YOLOV3相对于YOLOV2的改进主要在三个方面: 改用logistic回归分类; 改用Darknet-53特征提取网络,引入了残差结构...
  • YOLOv3 论文学习

    2018-12-04 16:16:32
    YOLOv3: An Incremental ImprovementAbstract1. Introduction2. The Deal2.1 Bounding Box Prediction2.2 Class Prediction2.3 Predictions Across Scales2.4 Feature Extractor2.5 Training3. How We Do4. Things w...
  • YOLOv3论文链接: https://arxiv.org/abs/1804.02767 问题: 网络实际学习的是tx、ty、tw、tht_{x}、t_{y}、t_{w}、t_{h}tx​、ty​、tw​、th​这4个offsets,tx、tyt_{x}、t_{y}tx​、ty​是预测的坐标偏移值,...
  • YOLOv3论文阅读理解

    千次阅读 2019-04-27 22:43:13
    YOLOv3: An Incremental Improvement YOLOv3 使用的网络比YOLOv1和YOLOv2都要大,但推断速度仍旧还算可以,与RetinaNet(另一个一阶段的网络)相比的话效果相当,但速度快了好几倍,和SSD对比也是如此。摘要和引言...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 820
精华内容 328
关键字:

yolov3论文