精华内容
下载资源
问答
  • 综述:最大池化,平均池化,全局最大池化和全局平均池化?区别原来是这样

    综述:最大池化,平均池化,全局最大池化和全局平均池化?区别原来是这样


    摘要

    创建ConvNets通常与池化层并驾齐驱。更具体地说,我们经常看到其他层,例如最大池化。但是他们是什么?为什么有必要,以及它们如何帮助训练机器学习模型?以及如何使用它们?

    我们在此博客文章中回答这些问题。

    首先,我们将从概念层面看一下池化操作。我们探索了ConvNet的内部工作原理,并通过此分析显示了合并层如何帮助这些模型中生成的空间层次结构。然后,我们继续确定池的四种类型-最大池化,平均池化,全局最大池化和全局平均池化。

    随后,我们从理论转向实践:我们展示池化如何在Keras(当今最广泛使用的深度学习框架)中表示。然后,我们通过基于MaxPooling的示例来结束本博客。

    什么是池化?

    假设您正在训练卷积神经网络。您的目标是对数据集中的图像进行分类。由您的神经网络中的第一卷积层执行的操作可以表示如下:
    在这里插入图片描述

    该层的输入是图像,高度为 H,宽度 w ^并具有三个渠道。因此,它们很可能是RGB图像。使用3x3x3内核&#

    展开全文
  • 全局平均池化(global-average-pooling)顾名思义就是整个特征图求一个平均值,把张量从WxHxN变到1x1xN。 平均池化(average-pooling)就是在特征图上从给定的区域中求平均值,变化后的特征图大小与池化区域大小选取...

    全局平均池化(global-average-pooling)顾名思义就是整个特征图求一个平均值,把张量从WxHxN变到1x1xN。

    平均池化(average-pooling)就是在特征图上从给定的区域中求平均值,变化后的特征图大小与池化区域大小选取有关。

    展开全文
  • 全局平均池化

    万次阅读 2019-07-12 10:15:04
    全局平均池化是在论文Network in Network中提出的,原文中全局平均池化作用和优点: 思想:对于输出的每一个通道的特征图的所有像素计算一个平均值,经过全局平均池化之后就得到一个 维度==类别数 的特征向量,...

     

    全局平均池化是在论文Network in Network中提出的,原文中全局平均池化的作用和优点:

    å¨è¿éæå¥å¾çæè¿°

    思想:对于输出的每一个通道的特征图的所有像素计算一个平均值,经过全局平均池化之后就得到一个 维度=C_{in}=类别数 的特征向量,然后直接输入到softmax层

     

    作用:代替全连接层,可接受任意尺寸的图像

     

    优点:1)可以更好的将类别与最后一个卷积层的特征图对应起来(每一个通道对应一种类别,这样每一张特征图都可以看成是该类别对应的类别置信图)

    2)降低参数量,全局平均池化层没有参数,可防止在该层过拟合

    3)整合了全局空间信息,对于输入图片的spatial translation更加鲁棒

     

    图解:

     

    pytorch的实现:

    pytorch中

    没有专门的全局平均池化API,但是我们可以使用现有的pooling API实现这个效果

    首先我们简单理解全局平均池化操作:
    如果有一批特征图,其尺寸为 [ B, C, H, W], 经过全局平均池化之后,尺寸变为[B, C, 1, 1]
    也就是说,全局平均池化其实就是对每一个通道图所有像素值求平均值,然后得到一个新的1 * 1的通道图

    明白这个思路之后,我们就可以很容易实现全局平均池化了。

    利用自适应平均池化就可以快速实现。或者自适应最大池化也可以,一样。

    In [1]: import torch
    
    In [2]: a = torch.rand([4,3,4,4])
    
    In [3]: a.size()
    Out[3]: torch.Size([4, 3, 4, 4])
    
    In [4]: b = torch.nn.functional.adaptive_avg_pool2d(a, (1,1))  # 自适应池化,指定池化输出尺寸为 1 * 1
    
    In [5]: b.size()
    Out[5]: torch.Size([4, 3, 1, 1])
    


    ---------------------  
    原文:https://blog.csdn.net/CVSvsvsvsvs/article/details/90495254 
     

     

    展开全文
  • 根据MIT的 Learning Deep Features for Discriminative Localization论文中的描述,在使用类响应图class activation mapping (CAM) 对比全局平均池化Global average pooling (GAP) vs 全局最大池化global max ...

    根据MIT的 Learning Deep Features for Discriminative Localization论文中的描述,在使用类响应图class activation mapping (CAM) 对比全局平均池化Global average pooling (GAP) vs 全局最大池化global max pooling (GMP):

    类响应图示例:
    在这里插入图片描述
    图中高亮区域就是根据label的注意图高响应区域

    具体得到的这个相应区的方法是

    在这里插入图片描述
    1) 训练主干网络得到特征图
    2) 进行全局池化(图中用的GAP,也可以使用GMP)
    3) 对全局池化的结果做全连接得到全连接参数 w
    4) 把全连接参数作为权重对特征图进行加权求和 上图最下方的公式

    根据对图像的研究发现,不同的类别的特征图相应区域不一样,原始的卷积网络具有一定的定位能力。而且如下图所示,不同类别的注意力区域也大不相同也呈现出非常准确的特征区域。

    模型可以预测出不同类别概率,根据类注意图发现。即使是错误预测的类别,比如上图预测狗狗预测成了人,但是人也在图中特征区域也是定位在了人的身上。

    说了这么多就是论证GAP和GMP具有定位能力。那么具体那个好呢

    先看一组实验
    在这里插入图片描述

    我们发现相比GAP,GMP在同一个类别上的top1 和top5 的损失都有所升高。

    原因分析:
    GAP 是对全局求平均,GAP LOSS 促使网络区分辨每个类别的程度,找到所有的目标可区分区域进行预测。
    GMP 是对全局求最大,只去找分数最高的那个区域。而去忽略其他分数低的区域

    因此在定位方面,GAP 比GMP要好

    GAP outperforms GMP for localization.

    展开全文
  • 全局平均池化,全局最大池化

    千次阅读 2018-12-24 17:51:22
    深度学习: global pooling (全局池化) Global average Pooling 论文出处:Network In Network 举个例子 假如,最后的一层的数据是10个6*6的特征图,global average pooling是将每一张特征图计算所有像素点的...
  • 在一些论文中,我们可能会看到全局平均池化操作,但是我们从pytorch官方文档中却找不到这个API,那我们应该怎么办? 答案是: 利用现有的pooling API实现全局平均池化的效果。 首先我们简单理解全局平均池化操作。 ...
  • 关于全局平均池化的理解

    万次阅读 2019-01-16 17:18:43
    1、全局平均池化 平均池化:在feature map上以窗口的形式进行滑动(类似卷积的窗口滑动),操作为取窗口内的最大值作为结果,经过操作后,feature map降采样,减少了过拟合现象。 全局平均池化GAP:不以窗口的形式...
  • 全局均值池化全局最大池化的输入一般为NxCxHxW,输出为NxCx1x1但是实际上有时候我们还会有另外一个需求,就是全局深度池化,它的输出是Nx1xHxW。这个方式的池化通常会先把数据转换为NxH*WxC的方式,然后使用一...
  • 全局平均池化(GAP)过程的理解

    千次阅读 2018-12-07 16:02:45
    对学习Class Activation Mapping(CAM)原文献的时候提到的全局平均池化GAP方法做个简单的知识补充。 所谓的全局就是针对常用的平均池化而言,平均池化会有它的filter size,比如 2 * 2,全局平均池化就没有size,...
  • 思想: 对于输出的每一个通道的特征图的所有像素计算一个平均值,经过全局平均池化之后就得到一个 维度==类别数 的特征向量,然后直接输入到softmax层 作用: 代替全连接层,可接受任意尺寸的图像 优点: 1)可以更...
  • 版权声明:本文为CSDN博主「qyhyzard」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 ... 利用现有的pooling API实现全局平均池化的效果。...也就是说,全局平均池化...
  • 全局平均池化能否完美代替全连接? 参考链接:https://www.cnblogs.com/hutao722/p/10008581.html 一.什么是全局平均池化?    全局平均池化(GAP)通过池化操作把多维矩阵转化为特征向量,以顶替全连接(FC)。 ...
  • 全局平均池化和全连接层

    千次阅读 2019-07-17 16:03:32
    全局平均池化:https://www.cnblogs.com/ywheunji/p/10476719.html 比较:http://www.mamicode.com/info-detail-2299459.html
  • 全局平均池化(global-average-pooling)

    万次阅读 2018-09-21 18:18:20
    全局平均池化在很多视觉任务中会用到。之前对darknet-53结构分析的时候,特别留意了一下全局平局池化。 其实,这个操作就是它的字面意思:把特征图全局平均一下输出一个值,也就是把W*H*D的一个张量变成1*1*D的张量...
  • 一 实例描述使用全局平均池化层来代替传统的全连接层,使用了3个卷积层的同卷积操作,滤波器为5*5,每个卷积层后面都会跟个步长为2*2的池化层,滤波器为2*2。2层的卷积加池后是输出为10个通道卷积层,然后对这10个...
  • 为什么使用全局平均池化层? 1、全连接层: 、全连接网络可以使feature map的维度减少,进而输入到softmax 、全连接层的参数超多 、会造成过拟合 、模型本身变得非常臃肿 2、全局平均池化层(global average poolilng...
  • GAP(全局平均池化层)操作

    千次阅读 2020-09-15 22:30:48
    为什么使用全局平均池化层? 关于 global average pooling https://blog.csdn.net/qq_23304241/article/details/80292859 在卷积神经网络的初期,卷积层通过池化层(一般是 最大池化)后总是要一个或n个全连接层,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 11,612
精华内容 4,644
关键字:

全局平均池化的作用