精华内容
下载资源
问答
  • 空洞卷积论文
    千次阅读
    2019-10-31 16:46:17

    DeepLabV3论文解读(空洞卷积/膨胀卷积 理解)

    最近在做基础网络研究,设计的网络结构除了在分类数据集上测试,还需要在分割和检测网络上测试效果,故选择了DeepLabV3作为对比平台。本想直接替换backbone查看结果,但不如借此机会把DeepLabV3好好研究清楚,顺带把分割领域的经典论文研究一遍,于是有了这篇博客~

    (FCN、SegNet、U-Net、CRF)

    DeepLabV3结构解读

    相关的四种获取上下文信息的分割方法:

    1. Image pyramid
      图像金字塔的用法是将一个共享权重的相同模型应用于多尺度的输入,其中大尺度的输入提供了小目标的细节,小尺度的输入图像被编码成整体的上下文信息。这种方法的主要缺点是因为GPU的内存限制(相当于针对每个尺度的输入都有同一个模型在并行训练),无法在较大/较深的网络上应用,因此通常在推理(Inference)阶段使用。
    2. Encoder-decoder
      编码器-解码器结构包含两个部分:编码器部分讲特征图的空间尺寸逐渐减小,从而在更深的特征图中捕获更长范围的信息,而解码器部分则负责恢复特征图的空间尺寸和对象的细节。比如SegNet和U-Net结构。
    3. Context module
      包含级联布局的其他模块来对大范围的上下文进行编码,比如将DenseCRF合并到CNN中。也有文献建议同时训练CNN和CRF,或者在CNN的belief map上使用额外卷积来获取上下文信息。
    4. Spatial pyramid pooling
      空间金字塔池化(SPP)最开始由何凯明提出,是一种在池化层融合多尺度信息的方法,DeepLabV2提出了空洞空间金字塔池化ASPP。最近PSP Net在几个网格尺度上执行空间池化,还有其他基于LSTM的方法。

    在DeepLabV3的主要工作是探索空洞卷积在Context module和Spatial pyramid pooling的应用,复制了ResNet的最后一个block并且以级联的方式排布。

    空洞卷积获取密集特征

    完全卷积的方式被证明用在语义分割上有效,但是频繁的max-pooling和striding导致得到特征图的空间分辨率严重降低,反卷积(FCNS)已被用来恢复空间分辨率,但是空洞卷积更应该被提倡,原因是空洞卷积的感受野更大。当参数量一定的时候,普通卷积只能提取小块的特征,而空洞卷积可以通过提高空洞率,让每次采样时在输入特征图上的重合采样区域更多,从而获得更密集的特征响应。举个例子:比如一个普通的卷积神经网络输入与输出尺寸之间差了32倍(down sampling 5次),当我们希望功能响应的空间密度加倍时,可以把最后一层的卷积或者池化层步幅stride设置为1,然后后续卷积替换为空洞率为2的空洞卷积,这样就能获得更密集的空间响应而不需要学习更多的参数。这里的密集,指的是特征图的分辨率,普通卷积的下采样操作会让特征图尺寸越来越小,最后得到的结果对应回原图的位置上,把每个特征图的像素点看作提取到的特征的话,整张图的特征响应就会变得稀疏。因此如果将最后一个缩小分辨率的卷积层替换成空洞卷积,可以 在保持运算量的同时不减小特征图分辨率,使输入与输出尺寸之间差16倍,这样就获得了更密集的特征响应。

    关于稀疏与密集特征响应

    关于空洞卷积获取密集特征在DeepLab-Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs即DeepLabV2中就已经提到,空洞卷积最早来源于小波变换中提高计算效率的方法,在这里借用这篇论文中的图来解释:
    在这里插入图片描述
    这个图是一维的示意图,a是普通标准卷积的稀疏特征提取,b是空洞率为2的空洞卷积的密集特征提取,乍一看似乎没看明白这个稀疏和密集的关系,没关系,重点放在它们作用的特征图上,看看它们作用的特征图的差别:
    在这里插入图片描述

    咱们重点看看这个图,给定一个输入图片,假设我们需要对它做下采样操作(比如卷积stride为2),将分辨率降低了两倍,然后与这个kernel size为7的卷积核做卷积运算,将得到的特征图再重新上采样两倍,植入到原始图像中,会发现我们只获得了图像1/4的响应(右上角的图),这就是标准卷积所谓的稀疏特征响应。相反,如果最开始不下采样,而是对原图使用kernel size=7,空洞率为2的空洞卷积运算,实际运算量以及参数量都没有变化(因为空洞卷积中间是空的0值,不需要运算)。这样就可以在不需要下采样的情况下对全分辨率的图像做卷积,并且能获得更大的感受野。

    所以之前提到的密集与稀疏特征响应,指的是提取到的特征图的分辨率。普通卷积的下采样操作会让特征图尺寸越来越小,最后得到的结果对应回原图的位置上,把每个特征图的像素点看作提取到的特征的话,整张图的特征响应就会变得稀疏。而空洞卷积可以在运算量不变的情况下不降低特征图的分辨率,这样得到的特征图对应回原图上就更加密集。

    在DCNN中,可以在一系列层中使用空洞卷积从而可以以任意的高分辨率计算网络的特征响应。将这种方法贯穿整个网络可以一直以原始分辨率计算特征图,但是计算成本过高,因此可以在效率和准确率之间做一个折中,将图像分类网络转化为一个密集特征提取器。

    让我们重回DeepLabV3的讨论

    DeepLabV3首先探索了将空洞卷积级联布局的结构,具体将ResNet的后几个块更改成空洞卷积,从而根据设定的值维持分辨率,如图所示在这里插入图片描述
    上面是原本的ResNet模块,通过不断的下采样操作使得特征图尺寸越来越小,同时深度越来越深,在分类任务时这样是有好处的,在较深的模块更容易获得全局信息,但是对于分割网络这样就损失了太多细节,特征响应变得稀疏。但是通过将后几个block改成空洞卷积之后,运算量没有增大,但是却能够维持分辨率不降低,这样获取了更密集的特征响应,使得还原到原图时细节更好。

    空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)

    拥有不同空洞率的ASPP有效的获取了多尺度信息,但是发现随着采样率增大,尤其是滤波器的等效尺寸接近特征图尺寸时,整个3×3滤波器就会退化为1×1滤波器,只用中间的一个权重值有用,为了克服这个问题,文章使用全剧平均池化在最后一个特征图上,并且通过1×1卷积得到256个特征上采样到所需空间尺寸,所以最终的ASPP包含四个并行操作,一个1×1卷积和三个3×3卷积,都有256个卷积核,如图所示:
    在这里插入图片描述
    所有分支得到的特征图将会拼接在一起通过另外一个1×1卷积。

    更多相关内容
  • 论文阅读 || 深度学习之空洞卷积

    千次阅读 2019-09-26 14:16:11
    空洞卷积(Dilated/Atrous Convolution),就是在标准的卷积里面注入空洞,以此来增加感受野的大小。 1 原理的介绍 1.1 空洞卷积的引入 Deep CNN对于某些任务有致命的缺陷。较为明显的为pooling layer (优点:...

    论文地址:Multi-scale context aggregation with dilated convolutions

    空洞卷积(Dilated/Atrous Convolution),就是在标准的卷积里面注入空洞,以此来增加感受野的大小。

    1 原理的介绍

    1.1 空洞卷积的引入

    Deep CNN对于某些任务有致命的缺陷。较为明显的为pooling layer (优点:减小特征图尺寸、增大感受野) 和 up-sampling。表现为:

    • maxpooling导致分辨率下降、局部信息丢失
    • 小物体信息无法重建(假设有四个pooling layer,则任何小于16pixel的物体信息将理论上无法重建)

    在图像分割领域,图像输入到CNN(典型的网络比如FCN[3])中,FCN先像传统的CNN一样对图像做出卷积在pooling,降低图像尺寸的同时增大感受野。但由于图像分割预测是pixel-wise的输出,所以要将pooling后较小的图像尺寸upsampling到原始的图像尺寸进行预测。
    故FCN中有两个关键:一个是pooling减小图像尺寸增大感受野,另一个是upsampling扩大图像尺寸。这个过程中,必然有一些信息丢失。于是就设计一种新的操作,不通过pooling也能有较大的感受野——dilated conv。

    • 1.2 空洞卷积的好处

    不改变特征图的尺寸,不增加参数,加大感受野。

    (a)图对应的3x3的1-dilated conv,和普通的卷积操作一样
    (b)图对应的3x3的2-dilated conv,实际的卷积kernel size还是3x3。但空洞为1,也就是对于对于一个7x7的图像patch,只有9个红色的点和3x3的kernel发生卷积操作,其余点略过。也可以理解为7x7的kernel,但只有图中9个点的权重不为0,其余都为0。
      此时,虽然kernel size只有3x3,但是这个卷积的感受野已经增大到了7x7(感受野内不是所有数据都处理,比如边界的像素值)。(假设这个2-dilated的前一层是一个dilated conv的话,那么每个红点就是1-dilated的卷积的输出,所以感受野为3x3。这样1-dilated和2-dilated合起来就能达到7x7的conv)
    (c)图是4-dilated conv操作,同理跟在两个1-dilated和2-dilated conv的后面,能达到15x15的感受野。对比传统的conv操作,3层3x3的卷积加起来,stride为1的话,只能达到 (kernel-1)*layer+1=7的感受野。也就是和层数layer成线性关系,而dilated conv的感受野是指数级的增长。

    1.3 空洞卷积的相关计算

    (参考于deeplabv2)首先考虑一维信号。空洞卷积的输出为y[i],输入为x[i],size为K的滤波器\omega [k],rate=r。定义为

    y[k] = \sum_{k=1}^{K}x[i+r*k]*\omega [k]

    使用上面两种空洞卷积,在二维信号(图片)上使用空洞卷积的表现

    • 上分支:【下采样1/2】 -- 【卷积】--【上采样2倍】。本质上这只是在愿图片上的1/4内容上做了卷积响应
    • 下分支:【使用rate=2的空洞卷积】。这种方式得到了整张图像的响应,效果更佳
    • 两种操作的卷积,具有相同的参数和感受野,但效果后者更佳。

    空洞卷积可以增大感受野。rate=r 会引入 r-1 个零,有效的将感受野从【k *k】扩展到【k+(k-1)(r-1)】,而不增加参数和计算量。在CDNN中,常见的做法是混合使用空洞卷积,以高的分辨率(理解为采样密集)计算最终的DCNN网络响应。

     

    2. 空洞卷积存在的问题

    潜在问题1:the gridding effect

    假设我们仅仅多次叠加dilation rate 2的3x3 kernel 的话,则会出现这个问题:

    会发现我们的kernel并不连续,也就是并不是所有的pixel都参与计算,因此这里将信息看做 checker-board的方式会损失信息的连续性。这对pixel-level dense prediction 的任务来说是致命的

    潜在问题2:Long-ranged information might be not relevant

    我们从dilated convolution的设计背景来看就能推测出这样的设计是用来获取long-ranged information。然而只采用dilation rate的信息或许只对一下大物体分割有效果,二队小物体来说则有弊无利了。如何同时处理不同大小物体的关系,则是设计好 dilated convolution网络结构的关键。

    3 Hybrid Dilated Convolution (HDC)的设计

    对于上面提出的问题,提出了相应的解决方法:

    • 第一个特性:叠加卷积的dilation rate 不能有大于1的公约数。比如[2, 4, 6]则不是一个号的三层卷积,依然会出现gridding effect
    • 第二个特性:我们将dilation rate 设计成锯齿状结构,例如 [1, 2, 5, 1, 2, 5]循环结构。

    一个较为常用的例子:[1,2,5] with 3x3 kernel(可行的方案)

    而这样的锯齿状本身的性质就比较好的来同时满足小物体大物体的分割要求(小 dilation rate 来关心近距离信息,大 dilation rate 来关心远距离信息)。

    个良好设计的 dilated convolution 网络能够有效避免 gridding effect.:

    4 多尺度分割的另类解:Atrous Spatial Pyramid Pooling(ASPP)

    在处理多尺度分割时,我们通常会有以下几种方式操作:

    仅仅在一个卷积分支下,使用dilated convolution 去抓取多尺度物体是一个不正统的方法。比方说,我们用一个HDC的方法来获取一个大(近)车辆的信息,然而对于一个小(远)车辆的信息都不在受用。假设我们再去用小 dilated convolution 的方法重新获取小的车辆信息,就会非常冗余。

    ASPP则在网络的decoder上对于不同尺度上用不同大小的dilation rate 来抓取多尺度信息,每个尺度则作为一个独立的分支,在网络最后合并起来,在接一个卷积输出预测label。这样的设计则有效避免了在encoder上冗余的信息的获取,直接关注了物体之间之内的相关性。

    5 其他

    该种结构,更多的应用在语义分割,其他以及后来的网络结构,也较少的采用空洞卷积。

     

     

    展开全文
  • 空洞卷积详解

    千次阅读 2022-02-23 11:01:16
    感受野指:卷积神经网络每一层输出的特征图上的像素点在输入图片上映射的区域大小,即FC层每个输出节点的值都依赖FC层所有输入,而CONV层每个输出节点的值仅依赖CONV层输入的一个区域,这个区域之外的其他输入值都...

    入门小菜鸟,希望像做笔记记录自己学的东西,也希望能帮助到同样入门的人,更希望大佬们帮忙纠错啦~侵权立删。

    目录

    一、感受野(知道的可以直接跳)

    二、空洞卷积的原理

    三、空洞卷积的作用

    1、扩大感受野

    2、捕获多尺度上下文信息

    四、空洞卷积的缺点

    1、网格效应

    2、远距离的信息可能不相关

    五、空洞卷积的改进——HDC(混合空洞卷积)


    一、感受野(知道的可以直接跳)

    感受野指:卷积神经网络每一层输出的特征图上的像素点在输入图片上映射的区域大小,即FC层每个输出节点的值都依赖FC层所有输入,而CONV层每个输出节点的值仅依赖CONV层输入的一个区域,这个区域之外的其他输入值都不会影响输出值,该区域就是感受野。简单来说就是特征图上的一个点对应输入图上的区域。

    举个栗子:一个5*5的特征图经过2个3*3卷积核后(步长为1,padding为0)的感受野是5*5

     注:计算感受野的大小时忽略了图像边缘的影响,即不考虑padding的大小

    计算方式:先计算最深层在前一层上的感受野,然后逐层传递到第一层

    (1)最后一层(卷积层或池化层)输出特征图感受野的大小等于卷积核的大小

    (2)其他层感受野计算公式:R F_{i}=\left(R F_{i+1}-1\right) \times \text { stride }_{i}+\text { Ksize }_{i}

    其中,R F_{i}是第i层卷积层的感受野,R F_{i+1}是(i+1)层上的感受野,stride是卷积的步长,Ksize是本层卷积核的大小。


    二、空洞卷积的原理

    空洞卷积有一个参数可以设置dilation rate,具体含义就是在卷积核中相邻两个值内填充dilation rate-1个0

     比如说一个3*3卷积核,dilation rate=2,那么如图所示


    三、空洞卷积的作用

    1、扩大感受野

    一般来说,在深度神经网络中增加感受野并且减少计算量的方法是下采样。但是下采样牺牲了空间分辨率和一些输入的信息。

    空洞卷积一方面增大了感受野可以检测分割大目标,另一方面相较于下采样增大了分辨率可以精确定位目标。

    2、捕获多尺度上下文信息

    当设置不同dilation rate时,感受野就会不一样,也即获取了多尺度信息


    四、空洞卷积的缺点

    1、网格效应

    仅仅多次叠加 dilation rate 相同的相同尺寸卷积核,会导致kernel 不连续,进而导致不是所有的像素都用来计算了,因此这会损失信息的连续性。

    如下图所示

    (那张白色的网格就相当于输入的图片,然后蓝色组成的那个框框就是卷积核,红色的点代表正在处理的像素点)

    可以看到红色点的旁边那一圈白色的像素点从头到尾都没有被利用到(都被乘0),所以红色那一点卷积后没有考虑到旁边这些白点的信息。

    2、远距离的信息可能不相关

    如果光采用大的扩张率的卷积可能只对一些大物体分割有效果,那么对小目标来说就不太友好了。因此设计好空洞卷积层的关键在于如何同时处理不同大小物体的关系。


    五、空洞卷积的改进——HDC(混合空洞卷积)

    1、叠加卷积的 dilation rate 不能有大于1的公约数,防止出现网格效应。比如【2,4,8】不行。

    2、将扩张率设计成锯齿状结构,如[1,2,5,1,2,5]

    空洞卷积代码实现:

    conv=tf.nn.atrous_conv2d(X,W,rate,padding)

    欢迎大家在评论区批评指正,谢谢~

    展开全文
  • 在看到SSD论文中遇到了Atrous这个概念,了解到对卷积过程有一定的帮助和提升,下面这篇博文可以很好的解释空洞卷积这个知识点 以下文章转载于行者无疆兮 优点:在不做pooling损失信息和相同的计算条件下的情况下,...

    在看到SSD论文中遇到了Atrous这个概念,了解到对卷积过程有一定的帮助和提升,下面这篇博文可以很好的解释空洞卷积这个知识点
    在这里插入图片描述

    以下文章转载于行者无疆兮

    优点:在不做pooling损失信息和相同的计算条件下的情况下,加大了感受野,让每个卷积输出都包含较大范围的信息。空洞卷积经常用在实时图像分割中。当网络层需要较大的感受野,但计算资源有限而无法提高卷积核数量或大小时,可以考虑空洞卷积。

    空洞卷积的概念

    空洞卷积(dilated convolution)是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。利用添加空洞扩大感受野,让原本3x3的卷积核,在相同参数量和计算量下拥有5x5(dilated rate =2)或者更大的感受野,从而无需下采样。扩张卷积(dilated convolutions)又名空洞卷积(atrous convolutions),向卷积层引入了一个称为 “扩张率(dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距。换句话说,相比原来的标准卷积,扩张卷积(dilated convolution) 多了一个hyper-parameter(超参数)称之为dilation rate(扩张率),指的是kernel各点之前的间隔数量,【正常的convolution 的 dilatation rate为 1】。
    在这里插入图片描述
    在这里插入图片描述

    空洞卷积的动态过程

    在二维图像上直观地感受一下扩张卷积的过程:
    在这里插入图片描述

    上图是一个扩张率为2的3×3卷积核,感受野与5×5的卷积核相同,而且仅需要9个参数。你可以把它想象成一个5×5的卷积核,每隔一行或一列删除一行或一列。
    在相同的计算条件下,空洞卷积提供了更大的感受野。空洞卷积经常用在实时图像分割中。当网络层需要较大的感受野,但计算资源有限而无法提高卷积核数量或大小时,可以考虑空洞卷积。

    Dilated Convolution感受野指数级增长
    对于标准卷积核情况,比如用3×3卷积核连续卷积2次,在第3层中得到1个Feature点,那么第3层这个Feature点换算回第1层覆盖了多少个Feature点呢?
    第3层:
    在这里插入图片描述

    第2层:

    在这里插入图片描述

    第1层:

    在这里插入图片描述

    第一层的一个5×5大小的区域经过2次3×3的标准卷积之后,变成了一个点。也就是说从size上来讲,2层33卷积转换相当于1层55卷积。题外话,从以上图的演化也可以看出,一个5×5的卷积核是可以由2次连续的3×3的卷积代替。
    但对于dilated=2,3*3的扩张卷积核呢?
    第3层的一个点:
    在这里插入图片描述

    第2层:

    在这里插入图片描述

    第一层:

    在这里插入图片描述

    可以看到第一层13×13的区域,经过2次3×3的扩张卷积之后,变成了一个点。即从size上来讲,连续2层的3×3空洞卷积转换相当于1层13×13卷积。
    ————————————————
    版权声明:本文为CSDN博主「行者无疆兮」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/qq_30159015/article/details/89148608

    展开全文
  • 摘要:在通用目标检测算法,空洞卷积能有效地提升网络的感受野,进而提升算法的性能。本次解读的文章提出了一种空洞卷积变体及对应的空洞卷积搜索方法,充分探索空洞卷积的潜力,进一步提升网络模型的性能。
  • 空洞卷积网络 论文阅读

    千次阅读 2018-06-19 15:56:45
    基于空洞卷积网络的病理性肺组织的语义分割 原文:Anthimopoulos M, Christodoulidis S, Ebner L, et al. Semantic Segmentation of Pathological Lung Tissue with Dilated Fully Convolutional Networks[J]. ...
  • 空洞卷积/膨胀卷积

    2022-05-02 18:34:25
    膨胀卷积(dilated convolution)又叫空洞卷积(Atrous convolution). 上图左边是一个普通的卷积,有边这幅就是我们要讲的膨胀卷积,与左边对比可以看出,同样都是采用3x3的kernel,但是我们在膨胀卷积中发现kenerl元素...
  • 深度学习之空洞卷积

    2018-03-09 13:46:35
    深度学习之空洞卷积原始出处论文,介绍了空洞卷积实现方法以及实现意义。
  • 空洞卷积的详细分析,对输入输出的大小进行了推导;并介绍了相关改进版本。
  • 文章目录普通卷积的感受野空洞卷积dilation rate 普通卷积的感受野 感受野的定义是,某层的特征图上的每一个像素点对于原图的感知尺寸 对于原图,即第 0 层的特征图,其每个像素的感受野尺寸是 1×11×11×1 ...
  • 空洞卷积(膨胀卷积)的相关知识以及使用建议(HDC原则)
  • 分组卷积和空洞卷积总结
  • 空洞卷积(Dilated/Atrous Convolution) 相比原来的正常convolution,dilated convolution 多了一个 hyper-parameter 称之为 dilation rate 指的是kernel的间隔数量: a是普通的卷积过程(dilation rate = 1),卷积...
  • 空洞卷积的理解

    2022-03-25 21:07:15
    空洞卷积的作用 空洞卷积有什么作用呢? 扩大感受野:在deep net中为了增加感受野且降低计算量,总要进行降采样(pooling或s2/conv),这样虽然可以增加感受野,但空间分辨率降低了。为了能不丢失分辨率,且仍然扩大...
  • 文章来源:... 1. 扩张卷积的提出 Multi-Scale Context Aggregation by Dilated Convolutions Dilated Residual Networks 论文笔记——CVPR 2017 Dilated Residual Netwo...
  • 在一次机缘巧合下,我恰巧瞅到师姐的论文,上面就闪晃晃的写有空洞卷积四个大字,我当时想的是这是什么玩意,听名字有点高大上,于是课下就搜了搜,发现还是挺有意思的,但也一直没有详细的看过,只能说有一个大致的...
  • 一文详解什么是空洞卷积

    万次阅读 多人点赞 2020-03-17 19:44:59
    空洞卷积(Dilated Convolution) 简介 空洞卷积也叫扩张卷积或者膨胀卷积,简单来说就是在卷积核元素之间加入一些空格(零)来扩大卷积核的过程。 空洞卷积的简单原理。下图是常规卷积和空洞卷积的动图对比: 常规...
  • 空洞卷积与反卷积

    千次阅读 2018-09-23 12:09:09
    空洞卷积(dilated conv),也称扩张卷积。空洞卷积可以在kernel有效增大感受野的同时不增加模型参数或者计算量。在图像需要全局信息或者语音文本需要较长的sequence信息依赖的问题中,都能较好的应用空洞卷积。在...
  • ESPNet系列的核心在于空洞卷积金字塔,每层具有不同的dilation rate,在参数量不增加的情况下,能够融合多尺度特征,相对于深度可分离卷积,深度可分离空洞卷积金字塔性价比更高。另外,HFF的多尺度特征融合方法也很...
  • 1.空洞卷积了解 空洞卷积最初是为解决图像分割的问题而提出的。常见的图像分割算法通常使用池化层来增大感受野(所以如果去掉池化层会使得感受野变小,从而影响后面的卷积层),同时也缩小了特征图尺寸,然后再利用上...
  • [语义分割]SPP、空洞卷积与ASPP总结

    千次阅读 2020-10-29 20:30:08
    ASPP全称:Atrous ...另一个是Atrous,空洞卷积,两个加在一起就是ASPP。 首先说一下SPP:Spatial Pyramid Pooling。这个结构出自于论文《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Re
  • 论文链接 ... 一、论文核心 《Dilated Residual Networks》这篇论文的核心在于创造性地提出了空洞卷积(Dilated Convolution)使 ResNet 在保持参数量不变、每个阶段的卷积层视...
  • [卷积]空洞卷积的改进

    千次阅读 2018-12-26 21:33:00
    [卷积]空洞卷积的改进 文章来源: https://zhuanlan.zhihu.com/p/50369448 从这几年的分割结果来看,基于空洞卷积的分割方法效果要好一些,为此,拿出两天时间来重新思考下空洞卷积问题。- . -语义...
  • 【目标检测】|空洞卷积aspp

    千次阅读 2021-06-15 09:35:55
    空洞卷积(扩张卷积,带孔卷积,atrous convolution)是一种区别于普通卷积的卷积方式,从字面理解,就是卷积层中有洞。 空洞卷积的rate的意思是在普通卷积的基础上,相邻权重之间的间隔(卷积核中参数之间的间隔)为...
  • A guide to convolution arithmetic for deep learning conv_arithmetic 卷积,空洞卷积、可分离卷积
  • PNASNet模型最主要的结构是Normal Cell和Reduction Cell(参见arXⅳ网站上编号为1712.00559的论文),NASNet模型的主要结构使用残差结构和多分支卷积技术,还添加深度可分离卷积(组卷积的一种特殊形式)和空洞卷积的...
  • 参考博客: 空洞卷积(dilated convolution)理解 【Tensorflow】tf.nn.atrous_conv2d如何实现空洞卷积
  • 0.空洞卷积是什么?HDC又是啥? 空洞卷积,说白了就是把kernel变成筛状。 两张图看明白。图源: https://www.jianshu.com/p/f743bd9041b3 传统卷积核: 空洞卷积核: 而HDC又是对空洞卷积的一种改进,可以说他是...
  • 膨胀卷积(空洞卷积)讲解
  • 关于dilated convolution(空洞卷积)感受野的计算

    万次阅读 热门讨论 2018-11-01 20:20:00
     公式 F后 = (F前 - 1) + K 此时K代表前一层层的空洞卷积的大小   F前 = F后 - 1 + 1   因此 倒数第二层的感受野为:67 - 1 + 1 = 67   倒数第三层的感受野:  67 - 3 + 1 = 65 倒数...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,489
精华内容 1,395
关键字:

空洞卷积论文