精华内容
下载资源
问答
  • 反卷积神经网络

    2019-02-12 16:07:49
    我们可以利用反卷积神经网络进行信道均衡、图像恢复、语音识别、地震学、无损探伤等未知输入heels过程辨识方面的问题。 反卷积的原理 反卷积,可以理解为卷积操作的逆操作,然而output并不能等于input,反卷积只是将...

    反卷积指的是,通过测量输出和已知输入重构未知输入的过程。在神经网络中,反卷积过程不具备学习的能力。可以理解为下图:
    来自与《深度学习之TensorFlow:入门、原理与进阶实战》

    反卷积神经网络的应用场景

    我们可以利用反卷积神经网络进行信道均衡、图像恢复、语音识别、地震学、无损探伤等未知输入heels过程辨识方面的问题。

    反卷积的原理

    反卷积,可以理解为卷积操作的逆操作,然而output并不能等于input,反卷积只是将卷积核转置,与卷积后的结果再做一次卷积。
    虽然他不能还原原来卷积的样子,但是在作用上具有类似的效果,可以将带有小部分缺失的信息最大化地恢复,也可以用来恢复被卷积生成后的原始输入。
    看图说话(来自于《深度学习之TensorFlow:入门、原理与进阶实战》):
    在这里插入图片描述
    可以发现反卷后的结果已经与原来的不等了,说明转置卷积只能恢复部分特征,无法百分百地恢复数据。

    反池化原理

    反池化是池化的逆操作,是无法通过池化结果还原出全部的原始数据。因为池化过程就相当于降维,保留主要信息,舍去次要信息。
    池化有两种方式:平均池化和最大池化。
    平均池化
    将池化结果中的每个值都填入其对应原始数据区域中的相应位置即可。
    在这里插入图片描述
    最大池化
    最大池化要求记录最大值的坐标,在反池化的时候,只把最大值所在的坐标激活,其他用0填充,具体如图:在这里插入图片描述

    展开全文
  • 反卷积神经网络介绍

    千次阅读 2018-05-13 11:29:09
    下图所示为VGG 16反卷积神经网络的结构,展示了一个卷积网络和反卷积网络结合的过程。VGG 16是一个深度神经网络模型。它的反卷积就是将中间的数据,按照前面卷积、池化等变化的过程,完全相反地做一遍,从而得到类似...
    反卷积是指:通过测量输出和已经输入重构未知输入的过程。在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。
    下图所示为VGG 16反卷积神经网络的结构,展示了一个卷积网络和反卷积网络结合的过程。VGG 16是一个深度神经网络模型。它的反卷积就是将中间的数据,按照前面卷积、池化等变化的过程,完全相反地做一遍,从而得到类似原始输入的数据。
    反卷积神经网络的应用场景
    由于反卷积网络的特性,导致它有许多特别的应用,一般可以用于信道均衡、图像恢复、语音识别、地震学、无损探伤等未知输入估计和过程辨识方便的问题。
    在神经网络的研究中,反卷积更多的是充当可视化作用。对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换,我们无法知道每个卷积核关注的是什么,变换后的特征是什么样子。通过反卷积的还原,可以对这些问题有个清晰的可视化,以各层得到的特征图作为输入,进行反卷积,得到反卷积结果,用以验证显示各层提取到的特征图。
    参考:
    展开全文
  • 最近两年深层的卷积神经网络,进展非常惊人,在计算机视觉方面,识别精度不断的突破,CVPR上的关于CNN的文献一大堆。比如调整了某个参数,CNN结果精度飙升,但如果别人问你,为什么这样调参精度会飙升呢,你所设计的...

    原文地址:地址1,本文在此基础上进行了整理和划重点

    本文文献:Zeiler, Matthew D.; Fergus, Rob,"Visualizing and Understanding Convolutional Networks".  In: Proc. European Conference on Computer Vision (ECCV), pp. 1-14, 2014. Zurich, Switzerland.

    反卷积网络的提出:《Adaptive deconvolutional networks for mid and high level feature learning》

    1. 该文处理的问题

    a. 问题:

    最近两年深层的卷积神经网络,进展非常惊人,在计算机视觉方面,识别精度不断的突破,CVPR上的关于CNN的文献一大堆。比如调整了某个参数,CNN结果精度飙升,但如果别人问你,为什么这样调参精度会飙升呢,你所设计的CNN到底学习到了什么特征

    b. 处理:

    这篇文献的目的,就是要通过特征可视化,查看你的精度确实提高了,看到你设计的CNN学习到的特征。

    2. 该文采取的思路和方法,及为什么能解决所处理的问题?

    a. 采取的思路和方法

    前提:

    反卷积网络在文献是用于无监督学习的。然而本文的反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。

    过程总述:

      输入(各层得到的特征图)——> 过程(反池化,反激活,反卷积)——> 输出(反卷积结果,可视化各层得到的特征图)

    过程具体:

     1. 反池化

       池化本质是不可逆的过程,在这里采用近似方法模拟可逆的过程。首先记录池化过程中,最大激活值得坐标位置。然后在反池化的时候,只把池化过程中最大激活值所在的位置坐标的值激活,其它的像素值置为0。因为在池化的过程中,除了最大值所在的位置,其它的值也是不为0的,所以上述操作只是一种近似。示意图:

     

    以上面的图片为例,上面的图片中左边表示pooling过程,右边表示unpooling过程。

       假设我们pooling块的大小是3*3,采用max pooling后,可以得到一个输出神经元其激活值为9,pooling是一个下采样的过程,本来是3*3大小,经过pooling后,就变成了1*1大小的图片了。

       upooling刚好与pooling过程相反,它是一个上采样的过程,是pooling的一个反向运算,当我们由一个神经元要扩展到3*3个神经元的时候,我们需要借助于pooling过程中,记录下的最大值所在的位置坐标(0,1),然后在unpooling过程的时候,就把(0,1)这个像素点的位置填上去,其它的神经元激活值全部为0。

          再来一个例子: 

        在max pooling的时候,我们不仅要得到最大值,同时还要记录下最大值的坐标 (-1-1),然后在unpooling的时候,就直接把(-1-1) 这个点的值填到对应位置,其它的激活值全部为0。

    2. 反激活

         我们在Alexnet中,relu函数是用于保证每层输出的激活值都是正数,因此对于反向过程,我们同样需要保证每层的特征图为正值,也就是说这个反激活过程和激活过程没有什么差别,都是直接采用relu函数。

    3. 反卷积   

      反卷积过程的滤波器,采用卷积过程的滤波器的转置(参数一样,只不过把参数矩阵水平和垂直方向翻转了)

      网络的整个过程:

      输入图片 —> 卷积 —> Relu —> 最大池化 —>

                                                                               |

       图片<— 反卷积 <— Relu <— 反池化 <— 特征图

    b. 为什么能解决所处理的问题

    已有方法的特征:

    1. 一类方法集中于研究训练反卷及网络的图像语义分割(将像素还原成图像)
    2. 一类方法集中于研究训练反卷积网络从而生成图像或者图形

    本文方法的创新之处:

    然而本文是用于可视化一个已经训练好的卷积网络模型 (展示每一层的特征图),没有学习训练的过程。

     

     

     

     

    展开全文
  • http://blog.csdn.net/hjimce/article/details/51762046 ... Visualizing and understanding convolutional networks MD Zeiler, R Fergus - European Conference on Compute...

    http://blog.csdn.net/hjimce/article/details/51762046

    http://arxiv.org/pdf/1311.2901.pdf

     

    Visualizing and understanding convolutional networks

    MD Zeiler, R Fergus - European Conference on Computer Vision, 2014 - Springer
    Abstract Large Convolutional Network models have recently demonstrated impressive
    classification performance on the ImageNet benchmark Krizhevsky et al.[18]. However there
    is no clear understanding of why they perform so well, or how they might be improved. In ...

    被引用次数:1022 相关文章 所有 17 个版本 引用 保存

    转载于:https://www.cnblogs.com/balmy/p/5773076.html

    展开全文
  • 首先,采用无监督两层堆叠反卷积神经网络从原始图像中学习得到特征映射矩阵;然后,将该特征映射矩阵作为深度卷积神经网络的卷积核,对原始图像进行逐层卷积和池化操作;最后,采用附加动量系数的小批次随机梯度下降法对...
  • 基于反卷积实习卷积神经网络的特征可视化,可视化的网络模型为VGG-19,将每一卷积层的特征图可视化,数量可以自己设置。
  • 参考博文:卷积神经网络中卷积、反卷积、池化解析
  • 神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换,我们无法知道每个卷积核关注的是什么...
  •  传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN出现了,给物体分割提供了一个非常重要的解决思路,其核心就是卷积与反卷积,所以这里就详细解释卷积与...
  • 传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN出现了,给物体分割提供了一个非常重要的解决思路,其核心就是卷积与反卷积,所以这里就详细解释卷积与反卷积...
  • 转自:卷积神经网络CNN(1)——图像卷积与反卷积(后卷积,转置卷积)动态图1.前言&nbsp; &nbsp;传统的CNN网络只能给出图像的LABLE,但是在很多情况下需要对识别的物体进行分割实现end to end,然后FCN...
  • 卷积神经网络

    2018-07-12 14:33:29
    反卷积神经网络中的反卷积是指,通过测量输出和已知输入重构未知输入的过程,其并不具备学习能力,仅仅是用于可视化一个已经训练好的卷积神经网络模型,没有学习的过程。 看一下VGG-16反卷积神经网络的结构,VGG-16...
  • DL之CNN:卷积神经网络算法简介之卷积矩阵、转置卷积(反卷积Transpose)、膨胀卷积(扩张卷积Dilated/带孔卷积atrous)之详细攻略 目录 卷积矩阵的简介 卷积、转置卷积——Transpose convolution 0、各种卷积...
  • 下一章:深度篇—— CNN 卷积神经网络(二)细说 池化(pooling) 与 池化(unpooling) 目录内容 深度篇—— CNN 卷积神经网络(一)细说 cnn 卷积神经网络 深度篇—— CNN 卷积神经网络(二)细说 池化(pooling) 与 ...
  • 卷积神经网络

    2020-04-21 22:09:23
    1、 卷积神经网络超详细介绍. 2、卷积神经网络概述. 3、几种典型的卷积神经网络模型. 4、卷积神经网络概述. 5、一文让你彻底了解卷积神经网络. 6、深度学习—图像卷积与反卷积(最完美的解释). 一、CNN简介 卷积...
  • 反卷积过程: 原名叫做反卷积,但是并不是很合理,所以转置卷积更合理一点。具体过程如下: (1)首先将卷积与感知野的乘积转换一下,将4*4的卷积核转换为下面的矩阵,然后4*4的原始数据转换为16*1的向量,这...
  • 卷积神经网络CNN基本概念(一) 卷积与反卷积、步长(stride)与重叠(overlap) 参考网址:https://blog.csdn.net/lanchunhui/article/details/61210506 1. 卷积与反卷积 如上图演示了卷积核反卷积的过程...
  • 反卷积(Deconvnet)可视化理解卷积神经网络

    万次阅读 多人点赞 2016-11-15 15:42:37
    可视化理解卷积神经网络 原文地址:http://blog.csdn.net/hjimce/article/details/50544370 作者:hjimce 一、相关理论 本篇博文主要讲解2014年ECCV上的一篇经典文献:《Visualizing and ...
  • 『cs231n』卷积神经网络的可视化与进一步理解 深度学习小白——卷积神经网络可视化(二) TensorBoard--TensorFlow可视化 原文地址:http://blog.csdn.net/hjimce/article/details/50544370 作者:...
  • 今天,我们来讨论一下卷积,以及卷积神经网络,这里边具体怎么运算的,请看下面分析: 首先选取知乎上对卷积物理意义解答排名最靠前的回答。 然后再来看分析卷积神经网络 1、卷积 来自知乎的优秀回答! 不推荐用...
  • Deep Convolutional Neural ...在本文中,我们提出了一种不基于物理或数学特征的自然图像反卷积方法,我们展示了使用图像样本构建数据驱动系统的新方向,这些图像样本可以很容易地从摄像机中生成或在线收集。 我...
  • 基于卷积神经网络的图像语义分割

    万次阅读 2018-02-14 20:37:03
    论文地址基于卷积神经网络的图像语义分割浙江大学硕士论文图像分割...1.分析了卷积神经网络在图像语义分割的应用前景,实现基于卷积神经网络和反卷积神经网络相结合的图像语义分割模型。2.对基于卷积神经网...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 522
精华内容 208
关键字:

反卷积神经网络