精华内容
下载资源
问答
  • Pooling

    2020-12-09 02:10:46
    <div><ul><li>Implement requirements for the database/sql pooling functionality.</li><li>Driver now reconnects automaticly when the database is ready again.</li><li>Returning concrete errors from ...
  • pooling

    千次阅读 2018-03-05 15:03:41
    poolin个的作用主要有两个方面:1:不变性(invariance),这种不变性包括translation(平移),rotation(旋转),scale(尺度)可通过一次或者多次max pooling达到要求,具有相同的特性2:保留主要的特性同时减少参数...

    poolin个的作用主要有两个方面:

    1:不变性(invariance),这种不变性包括translation(平移),rotation(旋转),scale(尺度)

    可通过一次或者多次max pooling达到要求,具有相同的特性

    2:保留主要的特性同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型的泛化性能

    尺度不变性,也就是增大了感受野,即这个特征原来被16*16的表示,经过pooling后,可以用4*4的图表示,假如一个2*2的卷积核就能够多框进去一些信息,提取的特征也就越准确。

    但是为了增加感受野,一开始就用跟图像一样大小的卷积核,是不可取的。

    卷积层越深模型的表征能力越强,即卷积次数越多越好,你用跟图像一样大的的到一个1*1的feature map 。但是一下降维那么多,会导致很多重要的信息丢失,你再进行卷积的时候效果就不会太好了

    一次性降维到1*1与多次降维最后降到1*1的区别是什么?

    第一次降维到1*1会导致一次性丢失信息太多,之后的卷积的表征能力就没有那么强了,而逐渐降维一次性的丢失的信息没有那么多,所以以后每一次卷积表征能力相对一次性降维更强。

    pooling的缺点:

    能够增大感受野,让卷积看到更多的信息,但是它在降维的过程中丢失了一些信息(只留下它认为重要的信息),所以pooling增大感受野的前提是丢失了一些信息(即降低了分辨率),这对segmentation要求的精度location有一定影响。

    所以pooling层跟segmentation有一定的冲突,但是你不用又不行,感受野可以帮助你提高准确率,而且还可以降低计算量,增强模型的泛化能力,所以感受野,分辨率,参数三者很难两全。 

    展开全文
  • 文章标题给出了四种Pooling的方法,这feature pooling方法是我在看论文的时候看到的,从最开的PoI Pooling到目前最新的Precise RoI PoolingPooling操作带来的检测精度影响越来越小。这篇文章目的是想梳理一下它们...

    1. 前言

    文章标题给出了四种Pooling的方法,这feature pooling方法是我在看论文的时候看到的,从最开的PoI Pooling到目前最新的Precise RoI Pooling由Pooling操作带来的检测精度影响越来越小。这篇文章目的是想梳理一下它们之间的区别与联系。

    2. RoI Pooling

    这种Pooling方法我是在Faster RCNN中看到的,该种Pooling方法采用的运算方法比较直接。下面是其计算的流程图:
    在这里插入图片描述
    在该网络中假设使用的骨架网络中的 f e a t s t r i d e = 16 feat_{stride}=16 featstride​=16,且测试图像中的一个边界框的大小为 400 ∗ 300 400*300 400∗300。
    1)首先计算对应feature map上图的大小,那么在特征图上的大小就是 400 / 16 ∗ 300 / 16 = 25 ∗ 18.75 400/16*300/16=25*18.75 400/16∗300/16=25∗18.75,注意这个时候出现小数了。那么就需要对其进行第一次量化操作,得到的特征图上大小为 25 ∗ 18 25*18 25∗18。
    2)得到Pooling结果。最后的RoI Pooling的输出是固定的为 7 ∗ 7 7*7 7∗7,那么就要对这个特征图进行划分,那么划分出来的每一块的大小就是 25 / 7 ∗ 18 / 7 = 3.57 ∗ 2.57 25/7*18/7=3.57*2.57 25/7∗18/7=3.57∗2.57。-_-||,小数又来了,那么取整吧,这是第二次量化操作,块的区域就变成了 3 ∗ 2 3*2 3∗2,然后再在这个区域上做max pooling得到最后的结果。
    所以很大的误差是来自于量化过程,量化误差不断积累就变得很大了。

    3. RoIWrap Pooling

    该Pooling方法比前面提到的Pooling方法稍微好一些。该方法出现在Instance-aware Semantic Segmentation via Multi-task Network Cascades中。对于一个选出来的预测框,它的对应的RoI区域可以通过 f e a t s t r i d e feat_{stride} featstride​算出来(crop操作),如下图所示:
    在这里插入图片描述
    那么该方法与上一个方法的区别是什么呢?主要的区别在于第二步。还是用上面提到的例子:在该网络中假设使用的骨架网络中的 f e a t s t r i d e = 16 feat_{stride}=16 featstride​=16,且测试图像中的一个边界框的大小为 400 ∗ 300 400*300 400∗300。
    1)corp操作。边界框在对应feature map上的大小为 400 / 16 ∗ 300 / 16 = 25 ∗ 18.75 400/16*300/16=25*18.75 400/16∗300/16=25∗18.75,注意这个时候出现小数了。那么就需要像之前的方法一样对其进行第一次量化操作,得到的特征图上大小为 25 ∗ 18 25*18 25∗18。
    2)warp操作。这里使用的是双线性差值算法,使corp操作的特征图变化到固定的尺度上去,比如 14 ∗ 14 14*14 14∗14,这样再去做Pooling得到固定的输出。这里的坐标就是连续的了,不会存在量化误差。
    可以看出这里去掉了第二次的量化操作,进而减小了误差,也提升了检测的精度。

    4. RoIAlign Pooling

    这种Pooling方法是在Mask RCNN中被采用的,这相比之前的方法其内部完全去掉了量化操作,取而代之的线性操作,使得网络特征图中的点都是连续的。从而提升了检测的精确度。
    在这里插入图片描述
    那么它具体是怎么搞的呢?还是用之前的例子来看看吧。在该网络中假设使用的骨架网络中的 f e a t s t r i d e = 16 feat_{stride}=16 featstride​=16,且测试图像中的一个边界框的大小为 400 ∗ 300 400*300 400∗300。
    1)得到对应feature map中对应的区域。这里可以算出对应的区域大小为 400 / 16 ∗ 300 / 16 = 25 ∗ 18.75 400/16*300/16=25*18.75 400/16∗300/16=25∗18.75,这个通过双线性差值计算的得到。这就是这一部分的结果了,不会对其进行量化操作。
    2)得到Pooling结果。假设Pooling的固定输出为 7 ∗ 7 7*7 7∗7,那么每个块得到的大小是 25 / 7 ∗ 18.75 / 7 = 3.57 ∗ 2.65 25/7*18.75/7=3.57*2.65 25/7∗18.75/7=3.57∗2.65。对于这样的一个块,假设在其中选择 2 ∗ 2 2*2 2∗2个采样点,那么每个采样点的值也是可以通过双线性差值得到,这样也是连续的。
    因而相比前面的两个算法,其内部实现并没有存在量化的操作,也就没有因为量化而带来的误差。这就使得其检测精确度进一步提升。具体的差别有多大呢?可以看一下Mask RCNN中给出的实验数据。
    在这里插入图片描述

    5. Precise RoI Pooling

    在这里插入图片描述
    这里的这个方法就更厉害了,其第一步与前面一种方法一样通过双线性运算得到。区别就是第二步了,在上一个方法中使用的是采样的方式得到最后的结果,这里使用积分取均值实现
    在这里插入图片描述

     

     

    承接Matlab、Python和C++的编程,机器学习、计算机视觉的理论实现及辅导,本科和硕士的均可,咸鱼交易,专业回答请走知乎,详谈请联系QQ号757160542,非诚勿扰。

     

    展开全文
  • Max pooling/Avg pooling

    2020-11-30 01:31:47
    I took a look at your structure diagram and noticed you used max pooling in transition layers. We used avg pooling instead. Max pooling might work too though. Just to let you know :) <p>Cheers,</p><p...
  • MaxPooling AveragePooling 目的: 1、整合特征 2、减少参数 2、平移不变性 如上图使用的max pooling,当底层特征向右偏移一位时,由于max pooling 只关注较大值,可以看到上层特征变化不大。 上图中三个...

    MaxPooling AveragePooling

    目的:
    1、整合特征
    2、减少参数
    2、平移不变性

    这里写图片描述
    如上图使用的max pooling,当底层特征向右偏移一位时,由于max pooling 只关注较大值,可以看到上层特征变化不大。
    这里写图片描述
    上图中三个detector分别探测不同偏移方向的数字5,当探测到对应偏移的数字5时,相应的detector就会激活。而在detector上层的pooling就能很好的对所有激活的detector产生激活。从而可以对数字的变形具有一定鲁棒性。
    类别:
    常有相邻矩形区域内的平均值、最大值、 L2 范数以及基于据中心像素距离的加权平均函数。
    AveragePooling:对邻域内特征点求平均。

    输入:
    1 3
    2 2
    输出:
    2

    MaxPooling:对邻域内特征点求最大值。

    输入:
    1 3
    2 2
    输出:
    3

    Stochastic-pooling:
    通过对像素点按照数值大小赋予概率(越大概率越大),再按照概率进行亚采样,概率越大越容易被采到,避免max pooling总是取最大值。在平均意义上,与mean-pooling近似,在局部意义上,则服从max-pooling的准则。

    GlobalMaxPooling GlobalAveragePooling

    global池化主要是用来解决全连接的问题,其主要是是将最后一层的特征图进行整张图的一个池化,形成一个特征点。来源于network in network。
    这里写图片描述
    全连接层存在限制输入维度大小,参数过多的问题。如上图,全连接层需将所有特征图转成向量拼接后再全连接。而global pooling思想是既然你全连接后最终还是输出一个固定大小向量,那不如直接对每个feature map进行处理。比如128个9*9的feature map,对每个feature map取最大值直接得到一个128维的特征向量。

    展开全文
  • About pooling

    2021-01-04 12:46:21
    <div><p>I have an old Winforms application, it works with PostgreSQL in RDS. ...What is pooling parameter values (use and max size) by default?</p><p>该提问来源于开源项目:npgsql/npgsql</p></div>
  • Connection Pooling

    2020-12-06 16:50:09
    <div><p>I ran into problems using Ohm in a multi-threaded context and decided to implement connection pooling. <p>I modified ohm's synchronize method to accomodate this. here: ...
  • Max pooling

    2020-12-08 19:56:42
    <p>In your paper the Algorithm 2 states that you do max pooling over a single region fro an inclined proposal to a point in the RROI. In the original caffe repo is implemented as max pooling. ...
  • /ext/new_allocator.h:136:4: error: no matching function for call to ‘tiny_dnn::max_pooling_layer::max_pooling_layer(const long unsigned int&, const long unsigned int&, const long unsigned int...
  • Pooling examples

    2020-11-28 19:36:25
    <p>I would be really grateful if you could show me an example how to use pooling in graph neural networks, for example the topKpool or the MinCutPool. I have just made a good network with spektral, ...
  • Corner pooling

    2020-12-05 09:44:02
    <div><p>Ever thought about using corner pooling to further improve AP?</p><p>该提问来源于开源项目:xingyizhou/ExtremeNet</p></div>
  • 目录Max Pooling介绍Max Pooling的作用 Max Pooling介绍 卷积神经网络CNN中,一般在卷积层后还会有一个 pooling层,即池化层,池化层做的实际是数据降维,简化计算。 max pooling的操作如下图所示:整个图片被不重叠...

    Max Pooling介绍

    卷积神经网络CNN中,一般在卷积层后还会有一个 pooling层,即池化层,池化层做的实际是数据降维,简化计算。
    max pooling的操作如下图所示:整个图片被不重叠的分割成若干个同样大小的小块(pooling size),每个小块内只取最大的数字,舍弃其他节点后,保持原有的平面结构得出output。
    在这里插入图片描述
    注意区分max pooling(最大值池化)和卷积核的操作区别:池化作用于图像中不重合的区域(这与卷积操作不同),上图是4*4的图片,由于不会重合,所以filter的大小和步长stride是相等的,均为2。

    Max Pooling的作用

    1.translation(平移)不变性(invariance)
    左边两个大图中表示数字1,但是两个1的位置不同,上者向右平移得到下者,在经过池化后,得到了相同的结果。
    在这里插入图片描述
    2.rotation(旋转)不变性
    左边两个大图中表示数字1,但是两个1的角度不同,上者旋转得到下者,在经过池化后,得到了相同的结果。
    9nLmNzZG4ubmV0L2NvbmRpMTk5Nw==,size_16,color_FFFFFF,t_70)
    3.scale(尺度)不变性
    左边两个大图中表示数字0,但是两个0的尺度不同,上者缩小得到下者,在经过池化后,得到了相同的结果。
    G4ubmV0L2NvbmRpMTk5Nw==,size_16,color_FFFFFF,t_70)
    4.举例
    在这里插入图片描述
    黄色区域中黑色的形状均为“横折”,经过22的filter之后,得到了33的output,再经过33的最大值池化后,都会得到11的output–3。可以看出,“横折”这个形状,在经过池化后得到的结果是相同的,这就减小了下一层输入大小,减小计算量和参数个数,完成了降维(减小feature map的尺寸)。

    展开全文
  • Knex pooling

    2020-12-08 20:52:18
    <div><p>Hey, I'm getting this error from a lambda ...m also using node-postgres for some raw sql queries, which has its own pooling.</p><p>该提问来源于开源项目:aerogear/graphback</p></div>
  • Connection pooling

    2020-12-08 20:04:14
    <div><p>We should offer connection pooling in the client that can manage connections to nodes in the cluster. <p>I don't have much of a plan for this yet, but there are probably a few different ...
  • 关于maxpooling和avgpooling

    千次阅读 2019-08-05 11:50:30
    面试题经常会出maxpooling和avgpooling的优化,具体思路是 1)对于avgpooling,使用动态规划 2)对于maxpooling,使用队列维护历史最大值 具体代码细节后续再补充。 学习了这两种方法后,有点好奇真正的框架中是...
  • mean-pooling,max-pooling和Stochastic-pooling

    千次阅读 2019-05-24 11:33:54
    mean-pooling,即对邻域内特征点只求平均,max-pooling,即对邻域内特征点取最大。根据相关理论,特征提取的误差主要来自两个方面:(1)邻域大小受限造成的估计值方差增大;(2)卷积层参数误差造成估计均值的偏移...
  • Pooling drops

    2021-01-10 05:42:22
    <div><p>example: <pre><code> authScene.on('message', async (ctx) =...<p>but pooling drops and no new messages come...</p><p>该提问来源于开源项目:telegraf/telegraf</p></div>
  • Max pooling error

    2020-12-08 18:44:33
    <div><p>Hello, I am new to mkldnn, and I have some trouble with maxpooling: I get the error message "could not create a forward pooling primitive descriptor". I really don't understand why...
  • ROI Pooling

    2020-09-07 22:16:52
    ROI Pooling(Region of interest pooling – 感兴趣区域池化)主要作用:对于不同尺寸的输入目标框,通过roi pooling,将其尺寸变为相同。 作用: 统一预选框尺寸 减轻网络,加速计算 允许端到端的训练模型 ...
  • GemPooling

    千次阅读 2019-09-05 12:01:59
    GemPooling Fine-tuning CNN Image Retrievalwith No Human Annotation Filip Radenovic Giorgos Tolias Ond´rej Chum 介于mean pooling和max pooling之间,二者是其特殊形式 通过调节参数p,可以关注不同细度...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,287
精华内容 4,114
关键字:

pooling