精华内容
下载资源
问答
  • 卷积神经网络优点

    万次阅读 2018-08-29 21:20:21
    卷积神经网络是在Hub等人对猫的视觉皮层中细胞的研究基础上,通过拟生物大脑皮层构而特殊设计的含有多隐层的人工神经网络。卷积层、池化层、激活函数是卷积神经网路的要组部分。卷积神经网络通过局部感受野、权重...

    卷积神经网络是在Hub等人对猫的视觉皮层中细胞的研究基础上,通过拟生物大脑皮层构而特殊设计的含有多隐层的人工神经网络。卷积层、池化层、激活函数是卷积神经网路的要组部分。卷积神经网络通过局部感受野、权重共享和降采样3种策略,降低了网络模型的复杂度,同时对于平移、旋转、尺度缩放等形式的变有度的不变性。因此被广泛应用于图像分类、目标识别、语音识别等领域一般情况下,常见的卷积神经网络由输入层、卷积层、激活层、池化层、全连接层和最后的输出层构成。
    卷积神经网络采用原始图像作为输入, 可以有效的从大量样本中学习到相应地特征, 避免了复杂的特征提取过程。由于卷积神经网络(CNN) 可以直接对二维图像进行处理, 因此, 在图像处理方面得到了广泛的应用, 并取得了较多的研究成果。该网络通过简单的非线性模型从原始图像中提取出更加抽象的特征,并且在整个过程中只需少量的人工参与。
    卷积神经网络具有局部感知和参数共享两个特点,局部感知即卷积神经网络提出每个神经元不需要感知图像中的全部像素,只对图像的局部像素进行感知,然后在更高层将这些局部的信息进行合并,从而得到图像的全部表征信息。不同层的神经单元采用局部连接的方式,即每一层的神经单元只与前一层部分神经单元相连。每个神经单元只响应感受野内的区域,完全不关心感受野之外的区域。这样的局部连接模式保证了学习到的卷积核对输入的空间局部模式具有最强的响应。权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。而且卷积神经网络采用原始图像作为输入,可以有效的从大量样本中学习到相应地特征,避免了复杂的特征提取过程。

    展开全文
  • 卷积神经网络优点

    千次阅读 2020-02-01 19:10:38
    优点: 1.在卷积层所用的权重和偏置的参数较少,两个原因:...2. 具有平移不变性,即使图片中的目标位置平移到图片另一个地方,卷积神经网络仍然能很好地识别出这个目标,输出的结果也和原来未平移之前是一致的。 ...

    优点:
    1.在卷积层所用的权重和偏置的参数较少,两个原因:(1)参数共享; ( 2)稀疏连接。
    在这里插入图片描述
    2. 具有平移不变性,即使图片中的目标位置平移到图片另一个地方,卷积神经网络仍然能很好地识别出这个目标,输出的结果也和原来未平移之前是一致的。
    在这里插入图片描述

    展开全文
  • python3_实现BP神经网络 + BP神经网络应用实例

    万次阅读 多人点赞 2018-07-29 22:10:28
    1.BP神经网络简介 BP神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照逆向传播算法训练的多层前馈神经网络,是目前应用最广泛的神经网络优点:具有任意复杂的模式分类能力和优良的...

    0.目录

    1.BP神经网络简介

    2.前期理论准备

    2.算法数学原理

    (一)符号说明

    (二)公式推导

    3.python实现(python3编程实现)

    (一)sigmoid函数

    (二)BP主函数实现

    4.数据格式

    1.BP神经网络简介

    BP神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照逆向传播算法训练的多层前馈神经网络,是目前应用最广泛的神经网络。

    目录

    0.目录

    1.BP神经网络简介

    2.前期理论准备

    2.算法数学原理

    (一)符号说明

    (二)公式推导

    3.python实现(python3编程实现)

    (一)sigmoid函数

    (二)BP主函数实现

    4.数据格式


    优点

    • 1.具有任意复杂的模式分类能力和优良的多维函数映射能力,解决了简单感知器不能解决的异或问题的问题(参考博客:https://www.jianshu.com/p/a25788130897 或 https://www.cnblogs.com/xym4869/p/11282469.html
    • 2.从结构上讲,BP神经网络具有输入层、隐含层和输出层
    • 3.从本质上讲,BP算法就是以网络误差平方目标函数、采用梯度下降法来计算目标函数的最小值。基本BP算法包括信号的前向传播误差的反向传播两个过程。

    缺点

    • 1.学习速度慢,即使是一个简单的过程,也需要几百次甚至上千次的学习才能收敛。
    • 2.容易陷入局部极小值
    • 3.网络层数、神经元个数的选择没有相应的理论指导
    • 4.网络推广能力有限。

    应用

    • 1.函数逼近
    • 2.模式识别
    • 3.分类
    • 4.数据压缩

    2.前期理论准备

    网络训练的目标:找到合适的权值和阈值,使得误差E最小。

    sigmoid函数:在信息科学当中,由于其单增以及其反函数单增等性质,sigmoid函数常被用作神经网络的阈值函数,将变量映射当0和1之间。(该函数的对x的求导也应该理解)

    2.算法数学原理

    (一)符号说明

    Xi: 输入信号。

    Xd: 隐层的阈值(是从求和函数中-θ中分离出的-1)。

    Vih: 第h个隐层神经元所对应输入信号Xi的权值。

    αh: 第h个隐层神经元的输入。

    -γh=--1*γh:隐层神经元的阈值。

    bh: 第h个隐层神经元的输入。

    ωhj: 第j个输出层神经元所对应的隐层神经元输出bh的权值。

    -θj=-1*θj:  输出层神经元的阈值(bq)

    :第j个输出层神经元的输出(预测输出值,yj为真实值)

    (二)公式推导

    通过公式变换可得输出层权值与阈值的变化量:

    同理可得隐层权值和阈值的变化量:

    3.python实现(python3编程实现)

    (一)sigmoid函数

    def sigmoid(x):
        """
        隐含层和输出层对应的函数法则
        """
        return 1/(1+np.exp(-x))
    

    (二)BP主函数实现

    def BP(data_tr, data_te, maxiter=600):
    
        # --pandas是基于numpy设计的,效率略低
        # 为提高处理效率,转换为数组
        data_tr, data_te = np.array(data_tr), np.array(data_te)
    
        # --隐层输入
        # -1: 代表的是隐层的阈值
        net_in = np.array([0.0, 0, -1])
        w_mid = np.random.rand(3, 4)          # 隐层权值阈值(-1x其中一个值:阈值)
    
        # 输出层输入
        # -1:代表输出层阈值
        out_in = np.array([0.0, 0, 0, 0, -1])
        w_out = np.random.rand(5)             # 输出层权值阈值(-1x其中一个值:阈值)
        delta_w_out = np.zeros([5])           # 存放输出层权值阈值的逆向计算误差
        delta_w_mid = np.zeros([3, 4])        # 存放因此能权值阈值的逆向计算误差
        yita = 1.75                           # η: 学习速率
        Err = np.zeros([maxiter])             # 记录总体样本每迭代一次的错误率
    
        # 1.样本总体训练的次数
        for it in range(maxiter):
    
            # 衡量每一个样本的误差
            err = np.zeros([len(data_tr)])
    
            # 2.训练集训练一遍
            for j in range(len(data_tr)):
                net_in[:2] = data_tr[j, :2]                       # 存储当前对象前两个属性值
                real = data_tr[j, 2]
    
                # 3.当前对象进行训练
                for i in range(4):
                    out_in[i] = sigmoid(sum(net_in*w_mid[:, i]))  # 计算输出层输入
                res = sigmoid(sum(out_in * w_out))                # 获得训练结果
    
                err[j] = abs(real - res)
    
                # --先调节输出层的权值与阈值
                delta_w_out = yita*res*(1-res)*(real-res)*out_in  # 权值调整
                delta_w_out[4] = -yita*res*(1-res)*(real-res)     # 阈值调整
                w_out = w_out + delta_w_out
    
                # --隐层权值和阈值的调节
                for i in range(4):
                    # 权值调整
                    delta_w_mid[:, i] = yita * out_in[i] * (1 - out_in[i]) * w_out[i] * res * (1 - res) * (real - res) * net_in
                    # 阈值调整
                    delta_w_mid[2, i] = -yita * out_in[i] * (1 - out_in[i]) * w_out[i] * res * (1 - res) * (real - res)
                w_mid = w_mid + delta_w_mid
            Err[it] = err.mean()
        plt.plot(Err)
        plt.show()
    
        # 存储预测误差
        err_te = np.zeros([100])
    
        # 预测样本100个
        for j in range(100):
            net_in[:2] = data_te[j, :2]                         # 存储数据
            real = data_te[j, 2]                                # 真实结果
    
            # net_in和w_mid的相乘过程
            for i in range(4):
                # 输入层到隐层的传输过程
                out_in[i] = sigmoid(sum(net_in*w_mid[:, i]))
            res = sigmoid(sum(out_in*w_out))                    # 网络预测结果输出
            err_te[j] = abs(real-res)                           # 预测误差
            print('res:', res, ' real:', real)
        
        plt.plot(err_te)
        plt.show()
    
    
    
    
    if "__main__" == __name__:
    
        # 1.读取样本
        data_tr = pd.read_csv("5.2 data_tr.txt")
        data_te = pd.read_csv("5.2 data_te.txt")
        BP(data_tr, data_te, maxiter=600)

    4.数据格式

    训练集、测试集下载链接见置顶评论:

    https://download.csdn.net/download/admin_maxin/19844122

    展开全文
  • 本文综合整理常用的神经网络,包括生物神经网络、人工神经网络、卷积神经网络、循环神经网络、生成对抗网络;参考了许多高校的课程、论文、博客和视频等。文章的结构是先进行概念了解,然后结合图片、结构图、一步...

    前言

    本文综合整理常用的神经网络,包括生物神经网络、人工神经网络、卷积神经网络、循环神经网络、生成对抗网络;参考了许多高校的课程、论文、博客和视频等。文章的结构是先进行概念了解,然后结合图片、结构图、一步一步详细讲解;大家要不看看? ( •̀ ω •́ )y

    一、人工神经网络

    简介:人工神经网络 (Artificial Neural Network, ANN),由人工神经元构成的网络,模拟人类的大脑;它模拟生物过程以反映人脑某些特征的计算结构。

    联系人工神经元模拟生物神经元人工神经网络模拟人类的大脑,模拟生物神经网络

    特点:人工神经网络是一个并行、分布处理结构,具有学习能力、泛化能力。

    功能:联想记忆功能、非线性映射功能、分类与识别功能、知识处理功能。

    详细介绍一篇文章“简单”认识《人工神经网络》(更新版)

    目录大纲

      展开全文
    • BP神经网络拟合函数具有精确度高的优点,本代码用matlab运用神经网络原理拟合sin函数进行测试和训练。
    • 浅谈人工智能神经网络优点

      千次阅读 2018-12-22 18:24:15
      神经系统的基本构造单元是神经细胞也称神经元。...神经网络优点 神经网络获得迅速发展,应用来领域越来越广,解决实际问题的能力也越来越强,这是神经网络的优良性能以及对国民经济所起的重大作用所决定的。...
    • RNN对比传统神经网络优点

      千次阅读 2019-06-30 11:30:45
      RNN(recurrent neural network,循环神经网络),在一般的神经网络由输入层、隐藏层、输出层构成。 然而传统神经网络有一个缺点就是,同一层的神经元不会相互传递,这就导致了在一些语言翻译中表现不佳,以为在...
    • 人工神经网络——径向基函数(RBF)神经网络

      万次阅读 多人点赞 2015-10-24 15:32:45
      径向基函数神经网络优点:逼近能力,分类能力和学习速度等方面都优于BP神经网络,结构简单、训练简洁、学习收敛速度快、能够逼近任意非线性函数,克服局部极小值问题。原因在于其参数初始化具有一定的方法,并非...
    • 卷积神经网络超详细介绍

      万次阅读 多人点赞 2018-09-19 10:16:59
      1、卷积神经网络的概念 2、 发展过程 3、如何利用CNN实现图像识别的任务 4、CNN的特征 5、CNN的求解 6、卷积神经网络注意事项 7、CNN发展综合介绍 8、LeNet-5结构分析 9、AlexNet 10、ZFNet 10.1 意义 ...
    • 竞争神经网络与SOM神经网络 竞争神经网络与SOM神经网络
    • 人工神经网络之前馈神经网络

      万次阅读 2017-07-08 20:14:25
       深度前馈神经网络也叫作多层感知机,是深度学习中最常用的模型。它包含输入层,隐含层和输出层三个部分。它的目的是为了实现输入到输出的映射。它定义了一个函数 y = f(x,theta),并且通过学习theta,得到了映射...
    • 神经网络

      千次阅读 2017-11-03 14:44:40
      神经网络7.1 什么是人工神经网络人工神经网络受到生物神经网络的启发。构造人工神经元来模仿生物神经元来工作。生物神经网络的基本工作原理:一个神经元的输入端有多个树突,主要是用来接收输入信息的。输入信息进过...
    • 卷积神经网络综述

      千次阅读 2019-02-25 14:51:38
      下面来简单介绍和归纳总结一下国内外卷积神经网络的结构,分析...卷积神经网络不仅具有传统神经网络的较好容错性、自适应性和较强自学习能力等优点,还具有自动提取特征、权值共享以及输入图像与网络结构结合良好...
    • 人类神经网络为一类似人类神经结构的并行计算模式,是”一种基于脑与神经系统研究,所启发的信息处理技术“,通常也被称为平行分布式处理模型或链接模型。其具有人脑的学习、记忆和归纳等基本特性,可以处理连续型和...
    • 小波神经网络

      2015-11-26 16:32:56
      这种结合使得WNN模型既保持了BP神经网络优点,同时又利用小波变换具有能够通过放大信号来提取局部信息的优点,对BP神经网络的权值及阈值进行优化,克服了BP 网络易受局部极值影响而致预报结果精度较低的...
    • 大家好,我是为人造的智能操碎了心的智能禅师。最近条子说他弄个了个新零售的神经网络。一般办公室里的半自动贩售便利柜,都是扫码以后,靠自觉取产品。条子是闭着眼睛,靠神经取产品...
    • 深度学习 CNN卷积神经网络 LeNet-5详解

      万次阅读 多人点赞 2017-10-18 16:04:35
      卷积神经网络( Convolutional Neural Network, CNN): 是一种常见的深度学习架构,受生物自然视觉认知机制(动物视觉皮层细胞负责检测光学信号)启发而来,是一种特殊的多层前馈神经网络。它的人工神经元可以响应...
    • 光子神经网络相比现有的神经网络优点是:能耗低,速度快,带宽大等。而其目前还存在发展不成熟,集成化低,没法兼容现有的市场等。但是就发展前景而言,是未来人工智能向生物智能逼近的一个重要方向。 STDP准则:...
    • 神经网络与卷积神经网络的区别

      千次阅读 2019-09-30 14:45:28
      神经网络即指人工神经网络,或称作连接模型,它是一种模仿动物神经网络行为特征,...并行、容错、可以硬件实现以及自我学习特性,是神经网络的几个基本优点,也是神经网络计算方法与传统方法的区别所在。 深度...
    • 循环神经网络

      千次阅读 2019-05-26 20:24:41
      文章目录循环神经网络循环神经网络RNN简单循环网络SRN参数学习随时间反向传播算法BPTT实时循环学习算法RTRL长期依赖问题基于门控的循环神经网络长短期记忆网络LSTM门控循环单元网络GRURNN文本分类Recurrent ...
    • 近年来,深度神经网络(DNN)在计算机视觉、自然语言处理等AI领域中取得了巨大的成功。得益于更深更大的网络结构,DNN的性能...同时分析了不同方法的优点和缺点以及适用场景,并且展望了高效神经网络设计的发展趋势。
    • 1、神经网络简介 2. 卷积神经网络
    • 文章目录区别卷积神经网络优点关于卷积神经网络的filter的理解 区别 在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经...
    • 常用神经网络的分类

      万次阅读 多人点赞 2018-03-05 16:05:19
      本文主要介绍了当前常用的神经网络,这些神经网络主要有哪些用途,以及各种神经网络优点和局限性。 1 BP神经网络 BP (Back Propagation)神经网络是一种神经网络学习算法。其由输入层、中间层、输出层组成的阶层...
    • 神经网络 和 NLP —— 神经网络入门

      千次阅读 2018-02-26 22:33:41
      本书并非系统介绍 NN 和 NLP,而是聚焦 NN 在 NLP 领域的具体应用,所以分成了四大部分:NN 中前馈神经网络的入门,前馈神经网络在 NLP 中的应用,RNN 等特殊结构在 NLP 中的应用,部分前沿方向介绍。 因此,本...
    • 神经网络的结构、激励函数、权值调整算法等方面对三种广义同余神经网络(generalized congruence neural network,GCNN)及传统BP神经网络(back propagation neural network,BPNN)的异同点进行了比较和研究。...
    • 人工神经网络(Artificial Neural Netwroks--ANN) 利用机器模仿人类的智能是长期以来人们认识自然、改造自然和认识自身的理想。

    空空如也

    空空如也

    1 2 3 4 5 ... 20
    收藏数 50,726
    精华内容 20,290
    关键字:

    神经网络的优点