精华内容
下载资源
问答
  • 反卷积网络

    千次阅读 2019-01-09 15:42:09
    反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中...随着反卷积在神经网络可视...

     




    反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional networks for mid and high level feature learning)。随着反卷积在神经网络可视化上的成功应用,其被越来越多的工作所采纳比如:场景分割、生成模型等。其中反卷积(Deconvolution)也有很多其他的叫法,比如:Transposed Convolution,Fractional Strided Convolution等等。

    这篇文章的目的主要有两方面:
    1. 解释卷积层和反卷积层之间的关系;
    2. 弄清楚反卷积层输入特征大小和输出特征大小之间的关系。

    ## 卷积层

    卷积层大家应该都很熟悉了,为了方便说明,定义如下:
    - 二维的离散卷积(N=2)
    - 方形的特征输入(i1=i2=i)
    - 方形的卷积核尺寸(k1=k2=k)
    - 每个维度相同的步长(s1=s2=s)
    - 每个维度相同的padding (p1=p2=p)

    下图表示参数为 (i=5,k=3,s=2,p=1) 的卷积计算过程,从计算结果可以看出输出特征的尺寸为 (o1=o2=o=3)。


    下图表示参数为 (i=6,k=3,s=2,p=1) 的卷积计算过程,从计算结果可以看出输出特征的尺寸为 (o1=o2=o=3)。


    从上述两个例子我们可以总结出卷积层输入特征与输出特征尺寸和卷积核参数的关系为:
    o=⌊i+2p−ks⌋+1.


    其中 ⌊x⌋ 表示对 x 向下取整。

    反卷积层

    在介绍反卷积之前,我们先来看看卷积运算和矩阵运算之间的关系。

    卷积和矩阵相乘

    考虑如下一个简单的卷积层运算,其参数为 (i=4,k=3,s=1,p=0),输出 o=2。


    对于上述卷积运算,我们把上图所示的3×3卷积核展成一个如下所示的[4,16]的稀疏矩阵 C, 其中非0元素 wi,j 表示卷积核的第 i 行和第 j 列。

    我们再把4×4的输入特征展成[16,1]的矩阵 X,那么 Y=CX 则是一个[4,1]的输出特征矩阵,把它重新排列2×2的输出特征就得到最终的结果,从上述分析可以看出卷积层的计算其实是可以转化成矩阵相乘的。值得注意的是,在一些深度学习网络的开源框架中并不是通过这种这个转换方法来计算卷积的,因为这个转换会存在很多无用的0乘操作,Caffe中具体实现卷积计算的方法可参考Implementing convolution as a matrix multiplication

    通过上述的分析,我们已经知道卷积层的前向操作可以表示为和矩阵C相乘,那么 我们很容易得到卷积层的反向传播就是和C的转置相乘

    反卷积和卷积的关系

    全面我们已经说过反卷积又被称为Transposed(转置) Convolution,我们可以看出其实卷积层的前向传播过程就是反卷积层的反向传播过程,卷积层的反向传播过程就是反卷积层的前向传播过程。因为卷积层的前向反向计算分别为乘 C 和 CT,而反卷积层的前向反向计算分别为乘 CT 和 (CT)T ,所以它们的前向传播和反向传播刚好交换过来。

    下图表示一个和上图卷积计算对应的反卷积操作,其中他们的输入输出关系正好相反。如果不考虑通道以卷积运算的反向运算来计算反卷积运算的话,我们还可以通过离散卷积的方法来求反卷积(这里只是为了说明,实际工作中不会这么做)。

    同样为了说明,定义反卷积操作参数如下:

    • 二维的离散卷积(N=2)
    • 方形的特征输入(i′1=i′2=i′)
    • 方形的卷积核尺寸(k′1=k′2=k′)
    • 每个维度相同的步长(s′1=s′2=s′)
    • 每个维度相同的padding (p′1=p′2=p′)

    下图表示的是参数为( i′=2,k′=3,s′=1,p′=2)的反卷积操作,其对应的卷积操作参数为 (i=4,k=3,s=1,p=0)。我们可以发现对应的卷积和非卷积操作其 (k=k′,s=s′),但是反卷积却多了p′=2。通过对比我们可以发现卷积层中左上角的输入只对左上角的输出有贡献,所以反卷积层会出现 p′=k−p−1=2。通过示意图,我们可以发现,反卷积层的输入输出在 s=s′=1 的情况下关系为:

    o′=i′−k′+2p′+1=i′+(k−1)−2p


    Fractionally Strided Convolution

    上面也提到过反卷积有时候也被叫做Fractionally Strided Convolution,翻译过来大概意思就是小数步长的卷积。对于步长 s>1的卷积,我们可能会想到其对应的反卷积步长 s′<1。 如下图所示为一个参数为 i=5,k=3,s=2,p=1的卷积操作(就是第一张图所演示的)所对应的反卷积操作。对于反卷积操作的小数步长我们可以理解为:在其输入特征单元之间插入 s−1 个0,插入0后把其看出是新的特征输入,然后此时步长 s′ 不再是小数而是为1。因此,结合上面所得到的结论,我们可以得出Fractionally Strided Convolution的输入输出关系为:

    o′=s(i′−1)+k−2p


    参考

    conv_arithmetic

    Is the deconvolution layer the same as a convolutional layer?

     

    转载至:http://buptldy.github.io/2016/10/29/2016-10-29-deconv/

    更多关于卷积和反卷积的可视化理解:https://github.com/vdumoulin/conv_arithmetic

    本文转载自:http://buptldy.github.io/2016/10/29/2016-10-29-deconv/

    展开全文
  • 反卷积网络用作可学习的上采样层,该层将低分辨率的高级特征图作为输入,并输出放大的特征图。 同时,通过汇总操作将低级特征图与这些高级特征图融合,以更好地表示目标外观。 我们将网络培训公式化为回归问题,...
  • 使用反卷积网络生成人脸
  • 基于深度反卷积网络的虹膜定位方法研究基于深度反卷积网络的虹膜定位方法研究
  • 反卷积(Deconvolution)也有很多其他的叫法,比如:Transposed Convolution(转置卷积),Fractional Strided Convolution(微步卷积)等等。 卷积的实质: 卷积的实质就是矩阵相乘,具体细节参照下图: ...

    前言: 

    •  卷积 (Convolution)
    •  反卷积(Deconvolution)也有很多其他的叫法,比如:Transposed Convolution(转置卷积),Fractional Strided Convolution(微步卷积)等等。

    卷积的实质:

    卷积的实质就是矩阵相乘,具体细节参照下图:

    反卷积和卷积的关系:

    • 转置卷积stride = 1:

    下图表示的是参数为( i^{'}=2,k^{'}=3,s^{'}=1,p^{'}=2)反卷积操作,其对应的卷积操作参数为 (i=4,k=3,s=1,p=0)。我们可以发现对应的卷积和非卷积操作关系为 (k=k^{'},s=s^{'}),但是反卷积却多了p^{'}=2。通过对比我们可以发现卷积层中左上角的输入只对左上角的输出有贡献,所以反卷积层会出现 p^{'}=k-p-1=2。通过示意图,我们可以发现,反卷积层的输入输出在 s=s^{'}=1的情况下关系为:

    o^{'}=i^{'}-k^{'}+2p^{'}+1=i^{'}+(k-1)-2p

    Fractionally Strided Convolution(微步卷积):

    • 转置卷积stride > 1:

    下图表示参数为 (i=5,k=3,s=2,p=1)的卷积计算过程,从计算结果可以看出输出特征的尺寸为 (o=3)

    上面也提到过反卷积有时候也被叫做Fractionally Strided Convolution,翻译过来大概意思就是小数步长的卷积。对于步长s>1的卷积,我们可能会想到其对应的反卷积步长 s^{'}<1。 如下图所示为一个参数为 i=5,k=3,s=2,p=1的卷积操作(上图)所对应的反卷积操作。对于反卷积操作的小数步长我们可以理解为:在其输入特征单元之间插入s-1个0,再在特征图的周围进行padding操作,padding的个数为(kernel_size - stride),插入0后把其看出是新的特征输入,然后此时步长 s^{'} 不再是小数而是为1。因此,结合上面所得到的结论,我们可以得出Fractionally Strided Convolution的输入输出关系为:o^{'}=s(i^{'}-1)+k-2p

    padding的三种形式:

    卷积padding = "same":

    Tensorflow2.0中转置卷积:

    Tensorflow2.0中转置卷积对应的实现函数为tf.keras.layers.Conv2DTranspose(),经转置卷积操作后的特征图大小,对应公式如下:

    参数:

    • filters :控制输出特征图的通道数。
    • input_shape:输入特征图大小。
    • kernel_size:卷积核的大小。
    • strides = 2:移动步长。
    • padding:same/valid。

    个人经验来说:strides可以使输出特征图的大小扩大strides倍,但要注意padding方式一定要设置为same,才能严格保证扩大的倍数。

     

    展开全文
  • 反卷积网络生成人脸 这个回购包含了用于训练和与反卷积网络连接的代码,该网络由改编,使用数据生。 需要 , , ,并与Python 3使用。 训练新模型 要训​​练新模型,只需运行: python3 faces.py train path/to...
  • 一、反卷积的基本概念反卷积网络在许多领域诸如卷积网络可视化(参考卷积神经网络可视化的探索)、语义分割(参考Michael:一文弄懂文本检测算法Corner(附源码))有应用。vdumoulin/conv_arithmetic里有反卷积的...

    一、反卷积的基本概念

    反卷积网络在许多领域诸如卷积网络可视化(参考卷积神经网络可视化的探索)、语义分割(参考Michael:一文弄懂文本检测算法Corner(附源码))有应用。

    vdumoulin/conv_arithmetic里有反卷积的动图。

    参考如何理解深度学习中的deconvolution networks?,反卷积更准确来说是转置卷积,比如在TensorFlow中的调用就是tf/nn/conv2d_transpose,该函数这么形容反卷积:

    This operation is sometimes called "deconvolution" afterDeconvolutional Networks, but is really the transpose (gradient) ofconv2drather than an actual deconvolution.

    用公式可以这么表达:

    卷积运算可表示为:

    ,如果是数学关系上的逆卷积则应该表示为:
    ,但是反卷积真实的关系应该为:

    至于反卷积层的核参数初始化及训练中的变化情况,以及与卷积层的核参数有没有关系,我认为 @愚蠢队长 的话还是有点意思的(这里推一篇我的文章神经网络是怎么“卷积”的):):

    先要理解卷积,理解卷积之后,自然就理解反卷积了。

    下面就使用Numpy复现反卷积的工作原理。


    二、使用Numpy复现反卷积

    首先我们去TensorFlow源码里找答案吧,API提示源码位于nn_ops.py#L2080-L2147,经过一番查找发现函数指向nn_ops.py#L2017:

    filter = deprecation.deprecated_argument_lookup(
          "filters", filters, "filter", filter)
    padding, explicit_paddings = _convert_padding(padding)
    return gen_nn_ops.conv2d_backprop_input(
          input_sizes, filter, out_backprop, strides, padding, use_cudnn_on_gpu,
          explicit_paddings, data_format, dilations, name)

    注意这里只改变了pading,filter是没有改变的,关键的是,最终指向了卷积的反向推导部分,又应了本文开头的那句话:

    先要理解卷积,理解卷积之后,自然就理解反卷积了。

    这里我们还是先推导卷积的公式吧,深入解读卷积网络的工作原理从im2col算法推导了卷积的运行原理,但这个实际上在本文是运行不了的,毕竟卷积运算可表示为:

    ,构造的卷积矩阵
    ,而不是输入矩阵

    因此,本文参考抽丝剥茧,带你理解转置卷积(反卷积),首先构造一个算法实现卷积运算

    ,这里考虑工作量,只考虑batch_size、输入channel、输出channel均为1 的情况,且padding为"VALID",相关的代码位于test_conv_transpose.py。

    首先需要对输入展开成列:

    input_np_flattern = np.reshape(input_np, newshape=[input_size*input_size, 1])

    之后需要构造卷积矩阵:

    filter_np_matrix = np.zeros((output_size, output_size, input_size, input_size))
    for h in range(output_size):
    	for w in range(output_size):
    		start_h = h*stride
    		start_w = w*stride
    		end_h = start_h + filter_size
    		end_w = start_w + filter_size
    		filter_np_matrix[h, w, start_h:end_h, start_w:end_w] = filter_np

    原理还是很简单的,根据步长等确立卷积区域,当然,最后要reshape成合适的维度:

    filter_np_matrix = np.reshape(filter_np_matrix, newshape=[output_size*output_size, input_size*input_size])

    最后矩阵相乘就得到输出矩阵了,reshape成合适的规格即可:

    output_np = np.dot(filter_np_matrix, input_np_flattern)
    output_np = np.reshape(output_np, newshape=[output_size, output_size])

    实验部分与深入解读卷积网络的工作原理是一样的,输入是

    ,卷积核为
    ,stride为2,padding为"VALID"。

    使用Numpy的输出为:

    output_np = [[312. 384.],[672. 744.]]
    output_np.shape = (2, 2)

    使用TensorFlow的输出为:

    output_tf = [[[[312.],[384.]],[[672.],[744.]]]]

    验证环节与深入解读卷积网络的工作原理相同,这里就不验证了。

    下面开始讲反卷积部分。

    首先与卷积部分相同,需要对输入展开成列:

    output_np_flattern = np.reshape(output_np, newshape=[output_size*output_size, 1])

    之后执行

    操作即可:
    output_np_transpose = np.dot(filter_np_matrix.T, output_np_flattern)
    output_np_transpose = np.reshape(output_np_transpose, newshape=[input_size, input_size])

    得到的输出是:

    output_np_transpose = [[   0.  312.  624.  384.  768.]
     [ 936. 1248. 2712. 1536. 1920.]
     [1872. 2856. 6144. 3432. 4560.]
     [2016. 2688. 5592. 2976. 3720.]
     [4032. 4704. 9840. 5208. 5952.]]
    output_np_transpose.shape = (5, 5)

    至于TensorFlow的代码,首先需要构造output_shape,这里参考conv_arithmetic.html#transposed-convolution-arithmetic,可得到输出尺寸为:

    这个公式实际上是卷积输出尺寸的逆公式,之所以不唯一原因在于向下取整这个操作,这里使得输出尺寸由卷积操作的输入决定:

    output_shape = [batch_size, input_size, input_size, input_channel]

    然后进行反卷积操作:

    output_tf_transpose = tf.nn.conv2d_transpose(output_tf, filter_tf, output_shape, [1, stride, stride, 1], padding)

    得到的输出是:

    output_tf_transpose = [[[[   0.],[ 312.],[ 624.],[ 384.],[ 768.]],
    [[ 936.],[1248.],[2712.],[1536.],[1920.]]
    [[1872.],[2856.],[6144.],[3432.],[4560.]]
    [[2016.],[2688.],[5592.],[2976.],[3720.]]
    [[4032.],[4704.],[9840.],[5208.],[5952.]]]]

    可见两者是完全相同的。

    抽丝剥茧,带你理解转置卷积(反卷积)还提供了一个形象的图解去解释反卷积的工作原理,并在TensorFlow下验证了这个想法,也是值得一读的。

    孙小也:反卷积(Transposed Convolution)详细推导里面关于反卷积的内容也相当不错。

    【已完结】

    展开全文
  • CN4Mat:用于MatlabOctave的深度神经网络工具箱。 可以通过提供的组件来补充一些深层网络,例如卷积网络,反卷积网络,自动编码器,卷积自动编码器,多层感知器。 自己尝试一下〜
  • 发现存在deconvolutional反卷积网络。 在使用cfg进行训练时反卷积网络无法识别,进行修改时发现反卷积后缺少上采样模块(被注释了),取消注释后,进行训练到反卷积那层时出现错误&#...
  • 将密集连接方式引入到反卷积网络中,提出了一种新型的深层密集反卷积神经网络。该网络共有51层卷积权重层,能够自动学习多层级图像的特征,充分挖掘图像信息,并且该网络是端对端可训练的,避免了深层网络中信息传递...
  • 反卷积网络在文本表征方面的应用

    千次阅读 2017-12-13 12:18:54
    首先值得一提的是,这篇文章是反卷积网络在文本领域的第一篇应用,(反卷积网络在2010年在paper《Deconvolutional Networks》中提出的,主要用于图像处理领域,当一个原始的图像经过卷积和反卷积操作后,就能够提取...

    这篇博客主要参考了2017年NIPS会议的paper《Deconvolutional Paragraph Representation Learning》。首先值得一提的是,这篇文章是反卷积网络在文本领域的第一篇应用,(反卷积网络在2010年在paper《Deconvolutional Networks》中提出的,主要用于图像处理领域,当一个原始的图像经过卷积和反卷积操作后,就能够提取出图像中的边缘特征)。

    读这篇博客之前首先要清楚反卷积操作和卷积操作的具体细节,其实说起来很简单:反卷积操作就是卷积操作的反向过程。如果非常理解卷积操作的话,应该很清楚一个输入是如何通过卷积的特殊方式转化成输出形式的,那么反卷积就是把输出和输入颠倒过来,同时保持输入和输出对应单元元素的对应关系不变,这就是反卷积过程。如果一个原始的输入信号通过一层一层的卷积操作最终变成了一个向量的形式,同样可以通过对称的反卷积方式一层一层的变换回去再变成和原始输入信号同等维度的输出。

    这篇论文的整体架构如下所示:
    这里写图片描述
    从图中可以看出这个架构由两个大部分组成,分别是Convolution Layers和Deconvolution Layers两个部分组成,同时不难看出这两个部分中的卷积和反卷积操作设置关于中间线成镜面对称。输入层的矩阵表征的是一个句子,句子在经过了padding之后长度为60,词向量的维度是300,在经过了两层卷积之后变成了500维的lantent向量,最后在经过对称的反卷积操作重新扩展回去,变成和输入层一样维度的矩阵。在这个过程中有一个细节需要注意,就是在输入的词向量和输出的词向量都进行了归一化的处理,这样对于损失函数来说每一个词语的权值都大致是相当的,它的归一化方式是以每一个词语为单位,即使得每一个词向量的模为1。(反正这点我有一点点的质疑,不应该以词向量的每一个维度为单位进行归一化更合理吗?这个以后可以继续进行探究。)

    从这个过程中,我们不难看出,第一阶段的卷积操作完成了对原始句子的编码操作(Encoder),第二阶段的反卷积操作完成了对原始句子的解码操作(Decoder),我们的目标就是要使得输入值和输出值越相似越好,那么就有如下的损失函数:
    p(wt=v)=exp(τ1Dcos(wt,We[v]))vVexp(τ1Dcos(wt,We[v]))
    其中wt是输出值,v是输入值,Dcos(x,y)是两个向量夹角的cos值,定义为<x,y>||x||.||y||
    可以看出p(wt=v)表示的是输出的wt是输入v词的概率,我们要做的就是最大化这个概率,那么对于全局的语料来说我们要做大化的式子就如下所示:
    L=dDtlogp(wd=v)

    到目前为止整个网络的无监督部分就已经讲解完了,作者还那这个基于反卷积的Decoder和基于RNN的Decoder进行了比价,结论就是:这个基于反卷积的Decoder在生成信号的时候是一下子直接生成了所有的输出信号,这些信号都是基于那个latent vector h;但是基于RNN的Decoder就不一样了,它是一步一步生成的输出信号,每一次只生成一个,而且每一个输出信号都依赖于上一个输出的信。当然这两种方式各有优点,基于RNN的方式一般用在language generation的场景,因为这样方式生成的句子更加的连贯(毕竟当前时刻的输出信号也收到了上一时刻的输出信号的影响),但是缺点就是如果某一时刻的输出信号错了,后面的依赖于当前输出信号的部分都将会出错。基于反卷积的方式就不一样了,它不存在前后的依赖性,一下子生成输出,它对于更长的文本有更好的适应能力,适合用在文本分类和文本总结的场景中。

    下面就以文本分类为例,来说明一下如何利用上述无监督训练的网络来帮助进行文本的分类训练。因为在进行文本分类的时候,是需要label数据进行训练的,但是往往有label的数据非常有限,如何利用刚才无监督的网络进行增强,下面就是一种解决方案:
    把上述卷积-反卷积架构中的latent vector h之前的卷积部分其实和进行文本分类的主要部分是完全一样的,只不过在文本分类的场景应用中,在latent vector之后跟的是softmax分类部分,这样就可以把这两种任务的损失函数写在一起达到联合训练的效果:
    Ltotal=αdDl+Dutlogp(wd=t)+dDlLsoftmax
    其中Dl代表了有label的数据集,Du代表了无label的数据集,Lsotmax 代表了分类任务的损失函数, α是一个控制两个比例的系数,它在训练中是一个动态调整的值,从1一直减少直到一个预先设定的最小值αmin。这样肯定比单独使用有label的数据集能取得更好的效果。

    展开全文
  • 深度学习中的反卷积网络理解

    千次阅读 2018-05-22 16:36:47
    最近又接触了一下DCGAN里面的生成器就是反卷积网络,和FCN是同一类的,所以想学习一下。deconvolution networks大致可以分为以下几个方面:(1)unsupervised learning,其实就是covolutional sparse coding...
  • 反卷积网络概念及其于目标检测中的应用
  • 用于中高级特征学习的自适应反卷积网络 本文章记录反卷积网络论文阅读后的心得 摘要 文章提出了一个层次模型,通过交替层卷积稀疏编码和最大池化来学习图像分解。当在自然图像上训练时,我们的模型层以各种形式捕捉...
  • 在计算机视觉领域,很多模型都用到了反卷积,但是有一点让我很迷惑:有的论文代码中,反卷积是直接调用ConvTranspose2d()函数,而有的是先upsample(上采样),再卷积,不用转置卷积的函数,为什么呢?然后我就找了...
  • CNN的计算方式:   w1 = (w - F_w + 2p) / s_w + 1 ...h1 = (h - F_h + 2p) / s_h + 1 ...这里Filter_sieze为卷积核的大小,及kernel_size   转载于:https://www.cnblogs.com/flyu6/p/8417083.html
  • 反卷积网络的棋盘格现象

    千次阅读 2018-09-09 15:35:32
    1 现象 通过神经网络生成的图片,放大了看会有棋盘格的现象 ...混叠现象造成的,反卷积时,到stride和ksize 不能整除时,就会有这种现象,二维图像的时候更显著...常见的有三种方法上采样,反卷积,nn插值,双线...
  • RBDN(递归分支反卷积网络) RBDN是一种用于的体系结构,其特点是 具有广泛参数共享功能的高效内存递归分支方案,可计算输入的早期可学习多上下文表示形式, 端到端保存从输入到输出的本地通信,以及 能够根据任务...
  • 二、利用反卷积实现特征可视化   最后可视化网络结构如下:         每一整张图片是网络的某一层特征图,然后每一行有8个小图片,分别表示网络epochs次数为:1、2、5、10、20、30、40、64的...
  • 该文章提出的CDNet变化检测网络被很多其他变化检测论文所引用并作为baseline。 文章提出的方法将多传感器融合的SLAM和快速密度3D重建结合了起来,用以对图像对进行粗略配准,然后再用深度学习方法进行像素级的变化...
  • 反卷积神经网络介绍

    千次阅读 2018-05-13 11:29:09
    下图所示为VGG 16反卷积神经网络的结构,展示了一个卷积网络和反卷积网络结合的过程。VGG 16是一个深度神经网络模型。它的反卷积就是将中间的数据,按照前面卷积、池化等变化的过程,完全相反地做一遍,从而得到类似...
  • 结论 插值方法不需要学习任何参数,而转置卷积就像卷积一样需要学习参数。...【1】深度卷积网络中如何进行上采样? 【2】一文搞懂反卷积,转置卷积 【3】tf.nn.conv2d_transpose反卷积(转置卷积) 【4】如何理解深
  • 反卷积神经网络

    2018-03-28 16:10:20
    反卷积跟1维信号处理的反卷积计算是很不一样的,FCN作者称为backwards convolution,有人称Deconvolution layer is a very unfortunate name and should rather be called a transposed convolutional layer....
  • 在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换,我们无法知道每个卷积核关注的是什么...
  •  传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN出现了,给物体分割提供了一个非常重要的解决思路,其核心就是卷积与反卷积,所以这里就详细解释卷积与...
  • 基于反卷积特征提取的深度卷积神经网络学习
  • 传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN出现了,给物体分割提供了一个非常重要的解决思路,其核心就是卷积与反卷积,所以这里就详细解释卷积与反卷积...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 912
精华内容 364
关键字:

反卷积网络