卷积核 订阅
卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。 展开全文
卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。
信息
外文名
convolution kernel
又    称
滤波器
中文名
卷积核
卷积核卷积核的意义
卷积核其实在图像处理中并不是新事物,Sobel 算子等一系列滤波算子,一直都在被用于边缘检测等工作中,只是以前被称为 Filter。做图像处理的同学应该有印象。卷积核具有的一个属性就是局部性。即它只关注局部特征,局部的程度取决于卷积核的大小。比如用 Sobel 算子进行边缘检测,本质就是比较图像邻近像素的相似性。也可以从另外一个角度理解卷积核的意义。学过信号处理的同学应该记得,时域卷积对应频域相乘。所以原图像与卷积核的卷积,其实是对频域信息进行选择。比如,图像中的边缘和轮廓属于是高频信息,图像中某区域强度的综合考量属于低频信息。在传统图像处理里,这是指导设计卷积核的一个重要方面。
收起全文
精华内容
下载资源
问答
  • 卷积核

    千次阅读 2018-05-26 22:14:54
    今天一个同学问 卷积过程好像是对 一个通道的图像进行卷积, 比如10个卷积核,得到10个feature map, 那么输入图像为RGB三个通道呢,输出就为 30个feature map 吗, 答案肯定不是的, 输出的个数依然是 卷积核的...

    今天一个同学问 卷积过程好像是对 一个通道的图像进行卷积, 比如10个卷积核,得到10个feature map, 那么输入图像为RGB三个通道呢,输出就为 30个feature map 吗, 答案肯定不是的, 输出的个数依然是 卷积核的个数。 可以查看常用模型,比如lenet 手写体,Alex imagenet 模型, 每一层输出feature map 个数 就是该层卷积核的个数。


    1、 一通道单个卷积核卷积过程




    2、 一通道 多个卷积核卷积过程


    一个卷积核得到的特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,可以学习32种特征。在有多个卷积核时,如下图所示:输出就为32个feature map

    卷积神经网络



    3、 多通道的多个卷积核

    下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,先将w2忽略,只看w1,那么在w1的某位置(i,j)处的值,是由四个通道上(i,j)处的卷积结果相加然后再取激活函数值得到的。  所以最后得到两个feature map, 即输出层的卷积核核个数为 feature map 的个数。

    卷积神经网络

    卷积神经网络

    所以,在上图由4个通道卷积得到2个通道的过程中,参数的数目为4×2×2×2个,其中4表示4个通道,第一个2表示生成2个通道,最后的2×2表示卷积核大小。


    下面是常见模型, 理解一下 每层feature map 个数,为上一层卷积核的个数

    下图即为Alex的CNN结构图。需要注意的是,该模型采用了2-GPU并行结构,即第1、2、4、5卷积层都是将模型参数分为2部分进行训练的。在这里,更进一步,并行结构分为数据并行与模型并行。数据并行是指在不同的GPU上,模型结构相同,但将训练数据进行切分,分别训练得到不同的模型,然后再将模型进行融合。而模型并行则是,将若干层的模型参数进行切分,不同的GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。

    卷积神经网络

    上图模型的基本参数为:

    输入:224×224大小的图片,3通道
    第一层卷积:5×5大小的卷积核96个,每个GPU上48个。
    第一层max-pooling:2×2的核。
    第二层卷积:3×3卷积核256个,每个GPU上128个。
    第二层max-pooling:2×2的核。
    第三层卷积:与上一层是全连接,3*3的卷积核384个。分到两个GPU上个192个。
    第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。
    第五层卷积:3×3的卷积核256个,两个GPU上个128个。
    第五层max-pooling:2×2的核。
    第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。
    第二层全连接:4096维
    Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。

    4 DeepID网络结构

    DeepID网络结构是香港中文大学的Sun Yi开发出来用来学习人脸特征的卷积神经网络。每张输入的人脸被表示为160维的向量,学习到的向量经过其他模型进行分类,在人脸验证试验上得到了97.45%的正确率,更进一步的,原作者改进了CNN,又得到了99.15%的正确率。

    如下图所示,该结构与ImageNet的具体参数类似,所以只解释一下不同的部分吧。

    卷积神经网络

    上图中的结构,在最后只有一层全连接层,然后就是softmax层了。论文中就是以该全连接层作为图像的表示。在全连接层,以第四层卷积和第三层max-pooling的输出作为全连接层的输入,这样可以学习到局部的和全局的特征。



    ---------------------------------------------------------------------------------------------------------------------------------------------------------------------

    下面讲一下,caffe中的实现。


    Caffe中的卷积计算是将卷积核矩阵和输入图像矩阵变换为两个大的矩阵A与B,然后A与B进行矩阵相乘得到结果C(利用GPU进行矩阵相乘的高效性),三个矩阵的说明如下:

    (1)在矩阵A中

            M为卷积核个数,K=k*k,等于卷积核大小,即第一个矩阵每行为一个卷积核向量(是将二维的卷积核转化为一维),总共有M行,表示有M个卷积核。

    (2)在矩阵B中

            N=((image_h + 2*pad_h – kernel_h)/stride_h+ 1)*((image_w +2*pad_w – kernel_w)/stride_w + 1)

            image_h:输入图像的高度

            image_w:输入图像的宽度

            pad_h:在输入图像的高度方向两边各增加pad_h个单位长度(因为有两边,所以乘以2)

            pad_w:在输入图像的宽度方向两边各增加pad_w个单位长度(因为有两边,所以乘以2)

            kernel_h:卷积核的高度

            kernel_w:卷积核的宽度

            stride_h:高度方向的滑动步长;

            stride_w:宽度方向的滑动步长。

            因此,N为输出图像大小的长宽乘积,也是卷积核在输入图像上滑动可截取的最大特征数。

            K=k*k,表示利用卷积核大小的框在输入图像上滑动所截取的数据大小,与卷积核大小一样大。

    (3)在矩阵C中

            矩阵C为矩阵A和矩阵B相乘的结果,得到一个M*N的矩阵,其中每行表示一个输出图像即feature map,共有M个输出图像(输出图像数目等于卷积核数目)


     (在Caffe中是使用src/caffe/util/im2col.cu中的im2col和col2im来完成矩阵的变形和还原操作)

     

     举个例子(方便理解):

         假设有两个卷积核为,因此M=2,kernel_h=2,kernel_w=2,K= kernel_h * kernel_w=4

         输入图像矩阵为,因此image_h=3,image_w=3,令边界扩展为0即pad_h=0,pad_w=0,滑动步长为1,即stride_h=1,stride_w=1

         故N=[(3+2*0-2)/1+1]*[ (3+2*0-2)/1+1]=2*2=4

     

        A矩阵(M*K)为(一行为一个卷积核),B矩阵(K*N)为(B矩阵的每一列为一个卷积核要卷积的大小)

        A 矩阵的由来:::    

        B矩阵的由来:(caffe 有 imtocol.cpp代码,专门用于实现) 



        C=A*B=*=

        C中的分别为两个输出特征图像即feature map。验证了 有几个卷积核就有几个feature map

     

        在Caffe源码中,src/caffe/util/math_functions.cu(如果使用CPU则是src/util/math_functions.cpp)中的caffe_gpu_gemm()函数,其中有两个矩阵A(M*K)

        与矩阵    B(K*N),大家可以通过输出M、K、N的值即相应的矩阵内容来验证上述的原理,代码中的C矩阵与上述的C矩阵不一样,代码中的C矩阵存储的是偏置bias,

        是A  与B相乘后得到M*N大小的矩阵,然后再跟这个存储偏置的矩阵C相加完成卷积过程。如果是跑Mnist训练网络的话,可以看到第一个卷积层卷积过程中,

        M=20,K=25,N=24*24=576。

      (caffe中涉及卷积具体过程的文件主要有:src/caffe/layers/conv_layer.cu、src/caffe/layers/base_conv_layer.cpp、                src/caffe/util/math_functions.cu、src/caffe/util/im2col.cu)

        另外大家也可以参考知乎上贾扬清大神的回答,帮助理解http://www.zhihu.com/question/28385679

      (对于他给出的ppt上的C表示图像通道个数,如果是RGB图像则通道数为3,对应于caffe代码中的变量为src/caffe/layers/base_conv_layer.cpp中

         函数forward_gpu_gemm中的group_)


    贾扬清的PPT如下:

    下面看这个就简单多了, im2col.cpp 的代码也好理解了

    展开全文
  • feature map、卷积核卷积核个数、filter、channel的概念解释 feather map的理解 在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起(像豆腐皮一样),其中每一个称为一个...

    feature map、卷积核、卷积核个数、filter、channel的概念解释

    feather map的理解

    在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起(像豆腐皮一样),其中每一个称为一个feature map

    feather map 是怎么生成的?

    输入层:在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。

    其它层:层与层之间会有若干个卷积核(kernel)(也称为过滤器),上一层每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map,有N个卷积核,下层就会产生N个feather map。

    多个feather map的作用是什么?

    在卷积神经网络中,我们希望用一个网络模拟视觉通路的特性,分层的概念是自底向上构造简单到复杂的神经元。楼主关心的是同一层,那就说说同一层。
    我们希望构造一组基,这组基能够形成对于一个事物完备的描述,例如描述一个人时我们通过描述身高/体重/相貌等,在卷积网中也是如此。在同一层,我们希望得到对于一张图片多种角度的描述,具体来讲就是用多种不同的卷积核对图像进行卷,得到不同核(这里的核可以理解为描述)上的响应,作为图像的特征。他们的联系在于形成图像在同一层次不同基上的描述。

    下层的核主要是一些简单的边缘检测器(也可以理解为生理学上的simple cell)。

    上层的核主要是一些简单核的叠加(或者用其他词更贴切),可以理解为complex cell。

     

    多少个Feature Map?真的不好说,简单问题少,复杂问题多,但是自底向上一般是核的数量在逐渐变多(当然也有例外,如Alexnet),主要靠经验。

    卷积核的理解

    卷积核在有的文档里也称为过滤器(filter):  

    • 每个卷积核具有长宽深三个维度;
    • 在某个卷积层中,可以有多个卷积核:下一层需要多少个feather map,本层就需要多少个卷积核。

    卷积核的形状

    每个卷积核具有长、宽、深三个维度。在CNN的一个卷积层中:

    • 卷积核的长、宽都是人为指定的,长X宽也被称为卷积核的尺寸,常用的尺寸为3X3,5X5等;
    • 卷积核的深度与当前图像的深度(feather map的张数)相同,所以指定卷积核时,只需指定其长和宽 两个参数。例如,在原始图像层 (输入层),如果图像是灰度图像,其feather map数量为1,则卷积核的深度也就是1;如果图像是grb图像,其feather map数量为3,则卷积核的深度也就是3.

    卷积核个数的理解

    如下图红线所示:该层卷积核的个数,有多少个卷积核,经过卷积就会产生多少个feature map,也就是下图中 `豆腐皮儿`的层数、同时也是下图`豆腐块`的深度(宽度)!!这个宽度可以手动指定,一般网络越深的地方这个值越大,因为随着网络的加深,feature map的长宽尺寸缩小,本卷积层的每个map提取的特征越具有代表性(精华部分),所以后一层卷积层需要增加feature map的数量,才能更充分的提取出前一层的特征,一般是成倍增加(不过具体论文会根据实验情况具体设置)!

     

     

     

     

    卷积核的运算过程

    例如输入224x224x3(rgb三通道),输出是32位深度,卷积核尺寸为5x5。

    那么我们需要32个卷积核,每一个的尺寸为5x5x3(最后的3就是原图的rgb位深3),每一个卷积核的每一层是5x5(共3层)分别与原图的每层224x224卷积,然后将得到的三张新图叠加(算术求和),变成一张新的feature map。 每一个卷积核都这样操作,就可以得到32张新的feature map了。  也就是说:

    不管输入图像的深度为多少,经过一个卷积核(filter),最后都通过下面的公式变成一个深度为1的特征图。不同的filter可以卷积得到不同的特征,也就是得到不同的feature map。。。

    filter的理解

    filter有两种理解: 

    在有的文档中,一个filter等同于一个卷积核:只是指定了卷积核的长宽深;

    而有的情况(例如tensorflow等框架中,filter参数通常指定了卷积核的长、宽、深、个数四个参数),filter包含了卷积核形状和卷积核数量的概念:即filter既指定了卷积核的长宽深,也指定了卷积核的数量。

     

    理解tensorflow等框架中的参数 channel(feather map、卷积核数量)

    在深度学习的算法学习中,都会提到 channels 这个概念。在一般的深度学习框架的 conv2d 中,如 tensorflow 、mxnetchannels 都是必填的一个参数。

    channels 该如何理解?先看一看不同框架中的解释文档。

    首先,是 tensorflow 中给出的,对于输入样本中 channels 的含义。一般的RGB图片,channels 数量是 3 (红、绿、蓝);而monochrome图片,channels 数量是 1 。

    channels : Number of color channels in the example images. For color images, the number of channels is 3 (red, green, blue). For monochrome images, there is just 1 channel (black). ——tensorflow

    其次,mxnet 中提到的,一般 channels 的含义是,每个卷积层中卷积核的数量

    channels (int) : The dimensionality of the output space, i.e. the number of output channels (filters) in the convolution. ——mxnet

    为了更直观的理解,下面举个例子,图片使用自 吴恩达老师的深度学习课程 。

    如下图,假设现有一个为 6×6×36×6×3 的图片样本,使用 3×3×33×3×3 的卷积核(filter)进行卷积操作。此时输入图片的 channels 为 33 ,而卷积核中的 in_channels 与 需要进行卷积操作的数据的 channels 一致(这里就是图片样本,为3)。

    cnn

    接下来,进行卷积操作,卷积核中的27个数字与分别与样本对应相乘后,再进行求和,得到第一个结果。依次进行,最终得到 4×4 的结果。

    单个卷积核

    上面步骤完成后,由于只有一个卷积核,所以最终得到的结果为 4×4×1 , out_channels 为 1 。

    在实际应用中,都会使用多个卷积核。这里如果再加一个卷积核,就会得到 4×4×2 的结果。

    多个卷积核

    总结一下,我偏好把上面提到的 channels 分为三种:

    1. 最初输入的图片样本的 channels ,取决于图片类型,比如RGB;
    2. 卷积核中的 in_channels ,就是要操作的图像数据的feather  map张数,也就是卷积核的深度。(刚刚2中已经说了,就是上一次卷积的 out_channels ,如果是第一次做卷积,就是1中样本图片的 channels) ;
    3. 卷积操作完成后输出的 out_channels ,取决于卷积核的数量(下层将产生的feather map数量)。此时的 out_channels 也会作为下一次卷积时的卷积核的 in_channels。

    说到这里,相信已经把 channels 讲的很清楚了。在CNN中,想搞清楚每一层的传递关系,主要就是 height,width 的变化情况,和 channels 的变化情况。

    最后再看看 tensorflow 中 tf.nn.conv2d 的 input 和 filter 这两个参数。 
    input : [batch, in_height, in_width, in_channels] , 
    filter : [filter_height, filter_width, in_channels, out_channels(卷积核的数量/下层将产生的feather map数量)] 。

    里面的含义是不是很清楚了?

    conv2d

     

     

    CNN的学习过程:更新卷积核的值(更新提取的图像特征)

    因为卷积核实际上就是如3x3,5x5这样子的权值(weights)矩阵。我们的网络要学习的,或者说要确定下来的,就是这些权值(weights)的数值。网络不断前后向的计算学习,一直在更新出合适的weights,也就是一直在更新卷积核们。卷积核在更新了,学习到的特征也就被更新了(因为卷积核的值(weights)变了,与上一层的map卷积计算的结果也就变了,得到的新map就也变了。)。对分类问题而言,目的就是:对图像提取特征,再以合适的特征来判断它所属的类别。类似这种概念:你有哪些个子的特征,我就根据这些特征,把你划分到某个类别去。

    这样就很说的通了,卷积神经网络的一整套流程就是:更新卷积核参数(weights),就相当于是一直在更新所提取到的图像特征,以得到可以把图像正确分类的最合适的特征们。(一句话:更新weights以得到可以把图像正确分类的特征。) 

     

    展开全文
  • 在跑一份代码时,效果一直提升不上去,偶然将3 * 3的卷积核换成了4 * 4的卷积核,效果奇佳,于是搜索了一下卷积核的大小对网络性能的影响,总结如下: 1.大卷积核和小卷积核 显然,大卷积核的感受野更大,自然提取...
  • 卷积核一般有三个维度(height,width,channel) 其中channel维度都和前面channel相同,类比于切一个方形蛋糕 一般卷积核都是和蛋糕相同厚度的小方形,卷积核和原矩阵相乘; 1x1卷积核同样需要相乘,不过相乘后需要将...

    卷积核一般有三个维度(height,width,channel)
    其中channel维度都和前面channel相同,类比于切一个方形蛋糕
    一般卷积核都是和蛋糕相同厚度的小方形,卷积核和原矩阵相乘;
    1x1卷积核同样需要相乘,不过相乘后需要将channel维度变成1,像拍扁一样,channel维度的数字直接相加,多个1x1卷积核在channel维度堆叠即可实现升维和降维。

    展开全文
  • 每一个卷积核的大小,为长宽深度。长,宽自定义,深度由上一层卷积核的个数或者输入图片的channel数决定。例如:如果上一层就是输入,输入为灰度图像,卷积核的深度为1。输入为rgb图像,卷积核的深度为3。如果上一层...
    1. 每一个卷积核的大小,为长,深度。长,宽自定义,卷积核输入通道数由上一层卷积核的个数或者输入图片的channel数决定。例如:如果上一层就是输入,输入为灰度图像,卷积核的输入通道数为1。输入为rgb图像,卷积核的深度为3。如果上一层为卷积层,卷积核的个数,即channel数,就是当前层卷积核的深度。
      注:(1)经过一个卷积核的输出,必然为一个特征图。
      (2)卷积核的个数,卷积核的深度,卷积核的channel数,是同一个概念。
      (3)当卷积核的大小大于1,步进为1时,不会改变输入的分辨率,即最终输入的分辨率和卷积核输出特征图的分辨率相同。
      (4)每个卷积核只有一个偏置,卷积核对上一层每个特征图分别进行卷积,然后卷积完成以后进行累加,然后添加偏置,形成一个特征图。
      (5)当下一层为BN层时,当前层卷积核的偏置可以不用设置。
      (6)卷积层的参数,不仅与当前层的通道数有关,也与输入层的通道数有关,权值共享只限于单独的通道,不同的通道无法进行权值共享。举例如下:
      卷积核的大小一般有1x1,3x3和5x5的尺寸(一般是奇数x奇数)。卷积核的个数就对应输出的通道数(channels),这里需要说明的是对于输入的每个通道,输出每个通道上的卷积核是不一样的。比如输入是28x28x192(WxDxK,K代表通道数),然后在3x3的卷积核,卷积通道数为128,那么卷积的参数有3x3x192x128,其中前两个对应的每个卷积里面的参数,后两个对应的卷积总的个数(一般理解为,卷积核的权值共享只在每个单独通道上有效,至于通道与通道间的对应的卷积核是独立不共享的,所以这里是192x128)。
    2. 当前层卷积核的channel数,可以自定义。可以与上一层卷积核个数相同,也可以是上一层卷积核个数的n倍。
      参考文献:
      https://blog.csdn.net/xys430381_1/article/details/82529397
      https://blog.csdn.net/amusi1994/article/details/81091145
    展开全文
  • 从图上我们可以看出,一个30×30的图像经过一个7×7(49个参数)的卷积核之后,输出的feature map的大小为24×24,与经过三个3×3卷积核(27个参数)之后的的输出是一致的。经过一个5×5的卷积核(25个参数)之后,输出...
  • 文章目录一、卷积核(convolutional kernel):1.1 介绍1.2 设计中的问题二、池化(pooling):没有完全整理的blog整理完的blog 一、卷积核(convolutional kernel): 1.1 介绍 **目标:**实现对应于输入的局部感知...
  • 现将自己的CSDN博客的一篇CNN卷积通道的文章迁移至知乎,原始文章地址:CNN卷积核与通道讲解_yilulvxing的博客-CSDN博客​blog.csdn.netCNN在图像和提取空间信息中有着广泛应用,本篇博客以图像解释为主,省去了CNN...
  • 具体是这样的:假如现在要识别一张RGB的彩色图片,那么,它就是一个多通道输入了,请看:最左边的是一个32x32x3的图像输入,其中3就代表有三个通道,那么对应的,它的每个卷积核就有3个通道,假设每个通道上的卷积...
  • CNN中feature map、卷积核卷积核个数、filter、channel的概念解释,以及CNN 学习过程中卷积核更新的理解发布时间:2018-09-08 15:22,浏览次数:4342, 标签:CNNfeaturemapfilterchannelfeature map、卷积核卷积...
  • 两个3x3卷积核替代一个5x5卷积核

    千次阅读 2020-01-01 11:31:51
    而VGG16说明了两个3×33\times33×3的卷积核和一个5×55\times55×5的卷积核感受野相同,从而可以使用两个3×33\times33×3的卷积核替代一个5×55\times55×5的卷积核。同理,可以使用三个3×33\times33...
  • 卷积核Convolutional Kernel什么是卷积?先给一个公式:我们来看一个生活中的示例:抛两个骰子,和相加等于4的概率是多少呢?我们得到最后的概率为:符合卷积的定义,可以写成:但是我们应该注意到:只是在上面的...
  • 3*3卷积核 5*5卷积核到底有多大区别

    万次阅读 2017-12-12 13:38:55
    为了比较3*3卷积核 和 5*5卷积核在性能上到底有多大区别设计了两个网络去进行对比, 1.两个3*3的卷积核,2个池化层,2个全连接层 2.两个5*5的卷积核,2个池化层,2个全连接层 两个网络的收敛标准,权重的初始化...
  • 卷积神经网络(CNN)训练中卷积核初始化方法研究朱继洪裴继红赵阳【摘要】本文提出了一种基于样本图像局部模式聚类的卷积核初始化方法,该方法可用于卷积神经网络(Convolutionalneuralnetwork,CNN)训练中卷积核的初始化...
  • 卷积计算的直观体现如上所示,一张汽车图片经过了多次卷积操作,一开始卷积在提取低层次的特征(检测边缘),然后逐渐提取高层次的特征(完整的物体)不同的卷积探测器我们可以看到同一张图片经过不同的卷积核,得到的...
  • 为什么一个55的卷积核可以由两个33的卷积核替代?(这个不要重要) 5x5卷积核可以用2个3x3卷积核替代的原因(这个不重要) 看图解决所有 这张图被用烂了。 在一个卷积层,因为权值共享,所以一个33只有9个w和一个b...
  • 只需要一句话就解释清楚了:不管输入图像的深度为多少,经过一个卷积核(filter),最后都通过下面的公式变成一个深度为1的特征图。 也就是说不管卷积核深度是多少(卷积核的深度和要被卷积的原始神经元的深度要一样...
  • 文章目录为什么一个5x5的卷积核可以用两个3x3的卷积核来替代一个5*5卷积两个3*3卷积核为什么一个7x7的卷积核可以用三个个3x3的卷积核来替代一个7*7卷积三个3*3卷积核优点总结 为什么一个5x5的卷积核可以用两个3x3的...
  • 在很多网络中,都使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5x5卷积核,这样做的主要目的是:(1)保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果;...
  • 1、AlexNet中国使用到了一些非常大的卷积核,比如1111,55卷积核,之前人们的观念认为receptive filed感受野越大,看到的图片信息越多,因此获得的特征越好。但另外一个方面大的卷积核会导致计算量的暴增,不利于模型...
  • 对CNN的训练,重点就是训练出来各种各样的卷积核来提取特征。初学者在学习CNN时,往往会面临一个问题,知道CNN的输出是如何计算的,也知道如何利用基于链式求导法则的反向传播算法去训练网络...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 9,717
精华内容 3,886
关键字:

卷积核