精华内容
下载资源
问答
  • 卷积神经网络原理

    2019-02-09 19:43:52
    从神经网络到卷积神经网络(CNN) 我们知道神经网络的结构是这样的: 那卷积神经网络跟它是什么关系呢? 其实卷积神经网络依旧是层级网络,只是层的功能和形式做了变化,可以说是传统神经网络的一个改进。比如下...

    从神经网络到卷积神经网络(CNN)

    我们知道神经网络的结构是这样的:
    在这里插入图片描述那卷积神经网络跟它是什么关系呢?
    其实卷积神经网络依旧是层级网络,只是层的功能和形式做了变化,可以说是传统神经网络的一个改进。比如下图中就多了许多传统神经网络没有的层次。
    在这里插入图片描述

    卷积神经网络的层级结构

         • 数据输入层/ Input layer
    

    • 卷积计算层/ CONV layer
      • ReLU激励层 / ReLU layer
      • 池化层 / Pooling layer
      • 全连接层 / FC layer

    1.数据输入层

    该层要做的处理主要是对原始图像数据进行预处理,其中包括:
      • 去均值:把输入数据各个维度都中心化为0,如下图所示,其目的就是把样本的中心拉回到坐标系原点上。
      • 归一化:幅度归一化到同样的范围,如下所示,即减少各维度数据取值范围的差异而带来的干扰,比如,我们有两个维度的特征A和B,A范围是0到10,而B范围是0到10000,如果直接使用这两个特征是有问题的,好的做法就是归一化,即A和B的数据都变为0到1的范围。
      • PCA/白化:用PCA降维;白化是对数据各个特征轴上的幅度归一化

    2.卷积计算层

    这一层就是卷积神经网络最重要的一个层次,也是“卷积神经网络”的名字来源。
    在这个卷积层,有两个关键操作:
      • 局部关联。每个神经元看做一个滤波器(filter)
      • 窗口(receptive field)滑动, filter对局部数据计算

    先介绍卷积层遇到的几个名词:
      • 深度/depth(解释见下图)
      • 步长/stride (窗口一次滑动的长度)
      • 填充值/zero-padding
      在这里插入图片描述
    在这里插入图片描述卷积的计算(注意,下面蓝色矩阵周围有一圈灰色的框,那些就是上面所说到的填充值)

    在这里插入图片描述

    卷积之后图像大小

    在这里插入图片描述

    参数共享机制(一个卷积核从上卷到下)

    • 在卷积层中每个神经元连接数据窗的权重是固定的,每个神经元只关注一个特性。神经元就是图像处理中的滤波器,比如边缘检测专用的Sobel滤波器,即卷积层的每个滤波器都会有自己所关注一个图像特征,比如垂直边缘,水平边缘,颜色,纹理等等,这些所有神经元加起来就好比就是整张图像的特征提取器集合。
      • 需要估算的权重个数减少: AlexNet 1亿 => 3.5w
      • 一组固定的权重和不同窗口内数据做内积: 卷积

    3.激励层

    激活函数的作用:https://blog.csdn.net/m0_37192554/article/details/83587579
    把卷积层输出结果做非线性映射。
    在这里插入图片描述CNN采用的激励函数一般为ReLU(The Rectified Linear Unit/修正线性单元),它的特点是收敛快,求梯度简单,但较脆弱,图像如下。
    在这里插入图片描述激励层的实践经验:
      ①不要用sigmoid!不要用sigmoid!不要用sigmoid!
      ② 首先试RELU,因为快,但要小心点
      ③ 如果2失效,请用Leaky ReLU或者Maxout
      ④ 某些情况下tanh倒是有不错的结果,但是很少

    4.池化层

    池化层夹在连续的卷积层中间, 用于压缩数据和参数的量,减小过拟合。
    简而言之,如果输入是图像的话,那么池化层的最主要作用就是压缩图像。

    这里再展开叙述池化层的具体作用。

    1. 特征不变性,也就是我们在图像处理中经常提到的特征的尺度不变性,池化操作就是图像的resize,平时一张狗的图像被缩小了一倍我们还能认出这是一张狗的照片,这说明这张图像中仍保留着狗最重要的特征,我们一看就能判断图像中画的是一只狗,图像压缩时去掉的信息只是一些无关紧要的信息,而留下的信息则是具有尺度不变性的特征,是最能表达图像的特征。

    2. 特征降维,我们知道一幅图像含有的信息是很大的,特征也很多,但是有些信息对于我们做图像任务时没有太多用途或者有重复,我们可以把这类冗余信息去除,把最重要的特征抽取出来,这也是池化操作的一大作用。

    3. 在一定程度上防止过拟合,更方便优化。
      在这里插入图片描述池化层用的方法有Max pooling 和 average pooling,而实际用的较多的是Max pooling。

    这里就说一下Max pooling,其实思想非常简单。
    在这里插入图片描述对于每个22的窗口选出最大的数作为输出矩阵的相应元素的值,比如输入矩阵第一个22窗口中最大的数是6,那么输出矩阵的第一个元素就是6,如此类推。
    一般CNN结构依次为
      1. INPUT
      2. [[CONV -> RELU]*N -> POOL?]*M
      3. [FC -> RELU]*K
      4. FC

    卷积神经网络之训练算法
      1. 同一般机器学习算法,先定义Loss function,衡量和实际结果之间差距。
      2. 找到最小化损失函数的W和b, CNN中用的算法是SGD(随机梯度下降)
    卷积神经网络之优缺点
    优点
      • 共享卷积核,对高维数据处理无压力
      • 无需手动选取特征,训练好权重,即得特征分类效果好
    缺点
      • 需要调参,需要大样本量,训练最好要GPU
      • 物理含义不明确(也就说,我们并不知道没个卷积层到底提取到的是什么特征,而且神经网络本身就是一种难以解释的“黑箱模型”)

    在这里插入图片描述

    展开全文
  • 3.卷积神经网络中的卷积卷积神经网络中,定义图像 和卷积核 的卷积过程如下:二.卷积神经网络简介和结构在实际项目中,输入神经网络的是具有更高分辨率的彩色图片,使得送入神经网络的参数过多。随着网络层数的增加...

    一.卷积

    1.二维卷积

    在信号处理中,二维卷积的定义如下:

    为给定图像,
    为滤波器。

    2.互相关

    机器学习中,卷积其实是不翻转的二维卷积,定义为下:

    被称作卷积核。

    3.卷积神经网络中的卷积

    卷积神经网络中,定义图像

    和卷积核
    的卷积过程如下:

    二.卷积神经网络简介和结构

    在实际项目中,输入神经网络的是具有更高分辨率的彩色图片,使得送入神经网络的参数过多。随着网络层数的增加,待优化参数越多,网络越来越复杂,模型很容易过拟合。为了减少特征参数,在实际应用时,会对原始图片进行特征提取,把提取来的特征送入全连接网络进行识别。

    卷积神经网络的主要作用,就是通过卷积核,对输入特征进行特征提取再把提取到的特征送入全连接网络进行识别预测。卷积神经网络的主要模块一般包括以下四个:

    卷积(Convolutional),批标准化(BN),激活(Activation),池化(Pooling)。

    数据依次经过以上四步之后,在将其送入全连接网络。此外有时候卷积模块的终端还会添加一个Dropout层。因此,在神经网络中,卷积就是特征提取器,它的过程为CBAPD。

    三.卷积层

    1.前向传播

    斯坦福大学给出的卷积过程如下图所示。首先,图像经过了

    填充,卷积核有两个
    ,卷积核的维度
    ,前两个数字是卷积核的尺寸维度,说明每个卷积核有3行3列,第三个维度为卷积核的通道数,通道数与图像的通道保持一致,如果图像为灰度图,则通道数为1,下图所给的图像为RGB图像,有三个通道,因此,每个卷积核也有三个通道;有两个卷积核,所以输出的特征也有两个。

    ed95574507f926c57f98d51e4839cf33.png

    如上图所示,卷积的计算过程为:首先,将卷积核按照指定步长滑动。滑动后,卷积核与图像中的元素重合,然后将对应元素相乘,所有相乘的结果相加并加上偏置

    ,即得到一个点的卷积结果。

    用公式表示卷积过程:

    *代表卷积操作。

    一般情况下,卷积核不止一个。也就是说

    一般为一个三维张量。

    激活函数

    通常为ReLu函数(线性修正单元)。

    2.全零填充

    有时候,可以将原始图像的周围填充上一圈0,从而调节输出特征的维度。输出维度的计算公式如下:

    3.反向传播

    (1)已知卷积层的

    ,推导上一层的

    其中,

    代表将卷积核翻转180度。

    (2)已知卷积层的

    ,求该层的

    对于

    对于

    ,将
    的各个子矩阵的项分别求和,得到一个误差向量,即为
    的梯度:

    四.批标准化(Batch Normalization,BN)

    神经网络对0附近的数据更加敏感,但是随着网络层数的增加,特征数据会出现偏离0均值的情况。标准化可以使数据符合

    均值,1为标准差的分布。而批标准化时对一小批数据做标准化处理。其公式为:

    :批标准化前,第
    个卷积核输出特征图中的第
    个像素点。

    :批标准化前,第
    个卷积核,batch张输出特征中所有像素点的均值。

    :批标准化前,第
    个卷积核,batch张输出特征中所有像素点的标准差。

    优点:避免数据偏移,远离导数饱和区。

    缺点:对于使用sigmoid 型激活函数时,这个取值区间刚好是接近线性变换的区间,减弱了神经网络的非线性性质。因此,为了使得归一化不对网络的表示能力造成负面影响,可以通过一个附加的缩放和平移变换改变取值区间。

    五.池化层

    池化一般包括最大池化和均值池化:最大池化可提取图片纹理,均值池化可保留背景特征。

    1.前向传播

    假如输入矩阵为

    维,过滤器大小为
    ,则输出为
    矩阵。

    (1)MAX

    输出区域为输入图像对应位置的最大值。

    (2)Average

    输出区域为输入图像对应位置的平均值。

    2.反向传播

    池化层没有激活函数,直接做unsample还原。

    (1)如果使用的是MAX,前向传播时记录位置:

    (2)如果使用的是Average,则进行平均:

    六.舍弃(Dropout)层

    为了缓解神经网络过拟合,在神经网络的训练过程中,常把隐藏层的神经元按一定比例从神经网络中临时舍弃。在使用神经网络时,再把所有神经元恢复到神经网络中。

    展开全文
  • CNN卷积神经网络原理详解(上)

    万次阅读 多人点赞 2019-10-18 23:59:17
    CNN卷积神经网络原理详解(上)前言卷积神经网络的生物背景我们要让计算机做什么?卷积网络第一层全连接层训练 前言 卷积网络(convolutional network),也叫作卷积神经网络(convolutional neural network,CNN),是...

    前言

    卷积网络(convolutional network),也叫作卷积神经网络(convolutional neural network,CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络在诸多应用领域都表现优异。‘卷积神经网络’一词表明该网络使用了卷积(convolutional)这种数学运算。卷积神经网络的运作模式如下图所示:


    上图只是一个卷积神经网络的基本构成,其中卷积层和池化层可以根据实际情况任意增加。当前卷积神经网络的应用场合非常广泛,比如图像识别,自然语言处理,灾难性气候预测甚至围棋人工智能等,但是最主要的应用领域还是图像识别领域。
    那么问题来了,为什么要用卷积神经网络来做这个事情呢?

    卷积神经网络的生物背景

    在这里插入图片描述

    如上图所示,人看到的图像,经过大脑的处理,最后呈现给我们的就是这个图像本身,而电脑看到的图像,实际上是一堆像素点的集合。面对这堆像素点,电脑并不知道这是个什么东西。那么我们需要电脑做什么呢?当然是让电脑辨认出这堆像素点所代表的那个图像。怎么做呢?伟大的科学家们这里借鉴了神经生物学家对猫在观察事物时候大脑皮层的工作原理提出了神经网络的概念。

    关于这个实验,网上和参考书上有详细介绍,这里总结就是,大脑皮层不同部位对外界刺激的敏感程度、反应程度不同。这就很好的启发了神经网络的计算核心,不断的寻找特征点,最终得出输入的到底是什么图像这个问题。

    我们要让计算机做什么?

    我们以图像为例,假定当我们的计算机看到一幅图片的时候,它实际上看到的是一组像素值。根据图像的分辨率和大小,假定它看到的是32x32x3的数组,这里的3代表这是一幅RGB的彩色图像。其中每一个数字的值都是0到255不等,代表了像素值的强弱。这些数字对于我们进行图像分类时毫无意义,这是计算机唯一可用的输入。这个想法是,你给计算机这个数组的输入,它最终会输出数字,描述了图像是一个类的概率(0.85为猫,0.1为狗,0.05为鸟等)。

    现在我们知道这个问题以及输入和输出了,我们来思考如何解决这个问题。我们希望计算机做的是能够区分所有的图像,并找出使狗成为狗或使猫成为猫的独特功能。这也是下意识地在我们的脑海中继续的过程。当我们看一张狗的照片时,如果照片具有可识别的特征,例如爪子或四条腿,我们可以将其分类。以类似的方式,计算机能够通过查找诸如边缘和曲线等低级特征来执行图像分类,然后通过一系列卷积层来构建更抽象的概念。这是一个CNN的一般概述。我们来详细说明一下。

    回到具体细节。有关CNN做的更详细的概述是,您将图像传递给一系列卷积,非线性,汇聚(下采样)和完全连接的图层,并获得输出。正如我们前面所说的那样,输出可以是一个类或者一个最能描述图像的类的概率。那么问题来了,每一层计算机都做了什么呢?

    卷积网络第一层

    这一层的理论意义
    卷积网络的第一层一定是一个卷积层,在研究卷积层是干啥的之前我们首先要明确的是这一层我们的输入是上文提到的图像的像素数值组。现在回到我们的问题,卷积层是干啥的。卷积层就是从这个像素数值组中提取最基本的特征。如何提取呢?我们假定输入的图像是一个32x32x3的数组,我们用一个5x5x3(最后乘以3是为了在深度上保持和输入图像一致,否则数学上无法计算)的模板沿着图像的左上角一次移动一个格子从左上角一直移动到右下角。输入的图像数组我们称为接受域,我们使用的模板叫做滤波器(也叫卷积核)。滤波器也是由数组组成,其中每个数字称为权重。输入的数组经过这一轮卷积输出的数组大小为28x28(32-5+1),深度由卷积核的数量决定。这个过程如下图所示:

    在这里插入图片描述
    这一层的实际意义
    但是,让我们从高层次谈论这个卷积实际上在做什么。每个这些过滤器都可以被认为是功能标识符。当我说功能时,我正在谈论的是直线边缘,简单的颜色和曲线。想想所有图像的共同点,最简单的特点。假设我们的第一个过滤器是5 x 5 x 3并且将成为曲线检测器。(在本节中,为了简单起见,让我们忽略过滤器深度为3单位的事实,并且只考虑过滤器和图像的顶部深度切片)。作为曲线检测器,过滤器将具有像素结构,沿曲线形状的区域是更高的数值(请记住,我们正在讨论的这些滤波器只是数字!)。
    在这里插入图片描述

    全连接层

    这个图层基本上需要一个输入量(无论输出是在其之前的conv或ReLU还是pool层),并输出一个N维向量,其中N是程序必须从中选择的类的数量。例如,如果你想要一个数字分类程序,N将是10,因为有10个数字。这个N维向量中的每个数字表示某个类别的概率。例如,如果用于数字分类程序的结果向量是[0.1.175 0 0 0 0 0 .05],那么这代表10%的概率,即图像是1,10%的概率图像是2,图像是3的概率是75%,图像是9的概率是5%(注意:还有其他方法可以表示输出,但我只是展示了softmax方法)。完全连接图层的工作方式是查看上一层的输出(我们记得它应该代表高级特征的激活图),并确定哪些特征与特定类最相关。例如,如果程序预测某些图像是狗,则在激活图中将具有高值,例如爪子或4条腿等的高级特征。类似地,如果程序预测某图像是鸟,它将在激活地图中具有很高的价值,代表像翅膀或喙等高级特征。基本上,FC层看着什么高级特征与特定类最强关联,并具有特定的权重,以便当你计算权重与上一层之间的乘积。

    在这里插入图片描述

    训练

    在我们搭建完毕神经网络的结构之后,我们需要对这个网络进行训练。训练的过程就是给这个网络模型不断的提供任务,让模型在执行任务的过程中积累经验,最终对类似的事件可以做出正确的判断。通俗的解释就是,假设我们教导一个小孩子认识狗,我们会给他看各种各样的狗,并告诉他,这是狗时间长了之后,当小孩见到狗这个物种的时候,就自然而然的知道是狗了。当然有时候也会有例外。比如来了一只狼,也许就会被误认为也是狗(狼狗)。造成这个误差的原因也许是我们给小孩看的狗的样本还不够多(可以理解为数据量不够,欠拟合),也有可能是我们教的方式不是最好的(选用的模型不是最优的)

    现在回到我们的网络模型问题上,第一个conv层中的过滤器如何知道要查找边和曲线?完全连接的图层如何知道要查看的激活图?每层中的过滤器如何知道有什么值?计算机能够调整其过滤值(或权重)的方式是通过称为反向传播的训练过程。
    在我们进入反向传播之前,我们必须先退后一步,讨论神经网络的工作需求。现在我们都出生了,我们的思想是新鲜的(神经网络搭建好了,但是还未训练)。我们不知道什么是猫,狗或鸟。以类似的方式,在CNN开始之前,权重或筛选值是随机的。过滤器不知道寻找边缘和曲线。在更高层的过滤器不知道寻找爪子和喙。然而,随着年龄的增长,我们的父母和老师向我们展示了不同的图片和图片,并给了我们相应的标签。被赋予形象和标签的想法是CNN经历的培训过程。在深入研究之前,我们假设我们有一套训练集,其中包含成千上万的狗,猫和鸟的图像,每个图像都有一个这个图像是什么动物的标签。

    反向传播可以分为4个不同的部分,正向传递,丢失函数,反向传递和权重更新。在正向传球过程中,您将会看到一张训练图像,我们记得这是一个32 x 32 x 3的数字数组,并将其传递给整个网络。在我们的第一个训练样例中,由于所有的权值或过滤值都是随机初始化的,因此输出结果可能类似[.1.1.1.1.1.1.1.1.1.1],基本上是输出不了任何准确数字。网络以其当前的权重无法查找这些低级特征,因此无法就分类的可能性作出任何合理的结论。这转到损失功能反向传播的一部分。请记住,我们现在使用的是训练数据。这个数据有一个图像和一个标签。例如,假设输入的第一个训练图像是3,图像的标签是[0 0 0 1 0 0 0 0 0 0]。损失函数可以用许多不同的方式来定义,但常见的是MSE(均方误差)。

    假设变量L等于该值。正如你可以想象的那样,第一对训练图像的损失将非常高。现在,让我们直观地思考这个问题。我们希望达到预测的标签(ConvNet的输出)与训练标签相同的点(这意味着我们的网络得到了预测权)。为了达到这个目的,我们希望最小化损失量我们有。将这看作是微积分中的一个优化问题,我们想要找出哪些输入(权重在我们的情况下)是最直接导致网络损失(或错误)的因素。

    tips
    关于卷积神经网络的数学含义,我会在CNN卷积神经网络原理详解(下)里面详细解释。
    传送门:
    CNN卷积神经网络原理详解(中)
    CNN卷积神经网络原理详解(下)

    展开全文
  • 卷积神经网络原理概述卷积神经网络又称作(ConvNet, CNN),它的出现解决了人工智能图像识别的难题,图像识别数据量大,并且在识别的过程中很难保留原有的信息,因此卷积的作用就体现在这里。比如我们经常说的像素,...

    卷积神经网络原理

    概述

    卷积神经网络又称作(ConvNet, CNN),它的出现解决了人工智能图像识别的难题,图像识别数据量大,并且在识别的过程中很难保留原有的信息,因此卷积的作用就体现在这里。比如我们经常说的像素,100W像素,那就是,1000X1000个像素点,同时每个像素点上有3个颜色参数,分别为红、绿、蓝。那么处理一张100w像素的图片,就需要输入300w个参数,这还是100w像素的图片,现在看看自己手机的照片,随便一张都是千万级别的,因此图片数据需要降维。

    卷积神经网络的构成

    典型的 CNN 由3个部分构成:

    1. 卷积层

    2. 池化层

    3. 全连接层

    其中卷积层用来提取图像的局部信息,池化层用来对数据进行降维,全连接层为普通的神经网络,用于输出想要的结果。
    从整体的结构上看,卷积神经网络类似与我们大脑对图像的处理过程,我们在观察一个事物或者一个人的时候,总是先从局部提取一些关键的信息,比如现在脑海里想一个人的头像,这个人的脸并不是全部很清晰的,但是他脸上的关键信息是很清楚的,比如孙红雷。

    卷积运算

    a4187bdea66b18bb6b87d2dc17d8bcfa.png

    展开全文
  • 卷积神经网络(CNN)是计算机视觉应用背后的架构。本文将阐述CNN和计算机视觉的基础,例如卷积运算,填充,跨步卷积和池化层。然后,我们将使用TensorFlow构建用于图像识别的CNN。理解卷积该卷积运算是卷积神经网络的...
  • CNN卷积神经网络原理详解(中)

    万次阅读 2019-10-19 12:43:44
    CNN卷积神经网络原理详解(中)卷积神经网络与全连接神经网络的比较卷积运算的数学解释卷积计算的工作模式 卷积神经网络与全连接神经网络的比较 卷积神经网络(Convolutional Neural Network,CNN)是一种前馈...
  • 下载地址:https://www.yanxishe.com/resourceDetail/1801?from=leiphonecolumn_res0622内容简介 · · · · · ·深度学习,特别是...本书作为该领域的入门书籍,在内容上涵盖深度卷积神经网络的基础知识和实践应...
  • 深度学习——卷积神经网络原理解析

    千次阅读 多人点赞 2019-03-15 17:02:02
    深度学习——卷积神经网络原理解析 文章目录深度学习——卷积神经网络原理解析前言一、卷积?神经网络?二、卷积神经网络?三、卷积神经网络的组成层四、卷积层五、池化层六、全连接层七、卷积神经网络的经验参数...
  • CNN卷积神经网络原理详解(下)

    万次阅读 2019-10-20 10:56:56
    CNN卷积神经网络原理详解(下)反向传播 反向传播 前面讲解了卷积神经网络的网络基本架构。我们在实际运算的时候会发现,随着计算次数的增加,我们的输出结果与我们的预期结果会不断的逼近。这是因为网络中的权重...
  • 吴恩达 卷积神经网络原理
  • 卷积神经网络原理.pdf

    2019-06-11 20:53:32
    本文档言简意赅地介绍了卷积神经网络原理,从最基础的反向传播梯度下降开始介绍,是学习搭建卷积神经网络非常不错的参考资料。
  • 本文将带你加深理解神经网络如何工作于CNNs。原标题 | Gentle Dive into Math Behind Convolutional Neural Networks作 者 | Piotr Skalski翻 译 | 通夜(中山大学)、had_in(电子科技大学)编 辑 | Pita 自动...
  • 本ppt详细介绍了卷积神经网络的起源背景、算法原理、算法的执行过程、以及CNN的应用场景
  • 这次,我们将要使用卷积神经网络的思想来拓宽我们对神经网络工作原理的理解。简介过去我们接触到了密集连接的神经网络。那些神经网络中,所有的神经元被分成了若干组,形成了连续的层。每个这样的单元都与相邻层的每...
  • Day03-卷积神经网络原理与使用 文章目录Day03-卷积神经网络原理与使用作业说明示例代码完成作业 作业说明 今天的实战项目是基于卷积神经网络 LeNet的“车牌识别”。 作业要求: 1、根据课上所学内容,构建 LeNet...
  • CNN卷积神经网络原理

    2017-08-06 19:03:02
    理解CNN卷积神经网络原理   1 前言  2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北京时,有一个词似乎...
  • 但是,关于如何才能设计出最优的卷积神经网络架构这个问题仍在处于探索阶段。其中一大部分原因是因为当前那些取得成功的神经网络的架构设计原理仍然是一个黑盒。虽然我们有着关于改进神经网络表现的丰富心得,但其实...
  • 本文转自:机器之心,作者-iotr Skalski...事实上,我们每天都在使用计算机视觉技术——我们用自己的面孔解锁手机,将图片上传到社交网络之前进行自动修图……卷积神经网络可能是这一巨大成功背后的关键组成模块。这...
  • CNN卷积神经网络原理讲解+图片识别应用(附源码)

    万次阅读 多人点赞 2018-06-26 16:35:50
    二、卷积神经网络原理介绍 用CNN卷积神经网络识别图片,一般需要的步骤有: 卷积层初步提取特征 池化层提取主要特征 全连接层将各部分特征汇总 产生分类器,进行预测识别 ...
  • CNN卷积神经网络原理讲解+图片识别应用(两层) https://blog.csdn.net/kun1280437633/article/details/80817129 写给初学者的深度学习教程之 MNIST 数字识别(一个CNN) ... 深入理解卷积层,全连接层的作用意义 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,722
精华内容 1,088
关键字:

卷积神经网络原理