精华内容
下载资源
问答
  • 深度信念网络

    千次阅读 2017-09-18 17:34:32
    本篇非常简要地介绍了深度信念网络的基本概念。文章先简要介绍了深度信念网络(包括其应用实例)。接着分别讲述了:(1) 其基本组成结构——受限玻尔兹曼机的的基本情况,以及,(2) 这个基本结构如何组成深度信念网络...
    本篇非常简要地介绍了深度信念网络的基本概念。文章先简要介绍了深度信念网络(包括其应用实例)。接着分别讲述了:(1) 其基本组成结构——受限玻尔兹曼机的的基本情况,以及,(2) 这个基本结构如何组成深度信念网络。 本文仅仅能使读者了解深度信念网络这一概念,内容非常浅显,甚至有许多不严密的地方。如果有愿意深入了解受限玻尔兹曼机、深度信念网络的,想对深度学习有更多了解的,请访问深度学习官方网站。或者读者可以参考文末的“推荐阅读”一节。 
     
     
     
    概述 
    深度信念网络 (Deep Belief Network, DBN) 由 Geoffrey Hinton 在 2006 年提出。它是一种生成模型,通过训练其神经元间的权重,我们可以让整个神经网络按照最大概率来生成训练数据。我们不仅可以使用 DBN 识别特征、分类数据,还可以用它来生成数据。下面的图片展示的是用 DBN 识别手写数字: 

    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     
    图 1 用深度信念网络识别手写数字。
    图中右下角是待识别数字的黑白位图,它的上方有三层隐性神经元。每一个黑色矩形代表一层神经元,白点代表处于开启状态的神经元,黑色代表处于关闭状态的神经元。注意顶层神经元的左下方即使别结果,与画面左上角的对应表比对,得知这个 DBN 正确地识别了该数字。

     
    下面是展示了一个学习了大量英文维基百科文章的 DBN 所生成的自然语言段落: 
    In 1974 Northern Denver had been overshadowed by CNL, and several Irish intelligence agencies in the Mediterranean region. However, on the Victoria, Kings Hebrew stated that Charles decided to escape during an 
    alliance. The mansion house was completed in 1882, the second in its bridge are omitted, while closing is the proton reticulum composed below it aims, such that it is the blurring of appearing on any well-paid type of box printer. 
     
    DBN 由多层神经元构成,这些神经元又分为显性神经元隐性神经元(以下简称显元和隐元)。显元用于接受输入,隐元用于提取特征。因此隐元也有个别名,叫特征检测器 (feature detectors)。最顶上的两层间的连接是无向的,组成联合内存 (associative memory)。较低的其他层之间有连接上下的有向连接。最底层代表了数据向量 (data vectors),每一个神经元代表数据向量的一维。 
    DBN 的组成元件是受限玻尔兹曼机 (Restricted Boltzmann Machines, RBM)。训练 DBN 的过程是一层一层地进行的。在每一层中,用数据向量来推断隐层,再把这一隐层当作下一层 (高一层) 的数据向量。 


    受限玻尔兹曼机 
    如前所述,RBM 是 DBN 的组成元件。事实上,每一个 RBM 都可以单独用作聚类器。 
    RBM 只有两层神经元,一层叫做显层 (visible layer),由显元 (visible units) 组成,用于输入训练数据。另一层叫做隐层 (Hidden layer),相应地,由隐元 (hidden units) 组成,用作特征检测器 (feature detectors)。 
     【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     
    图 2 受限玻尔兹曼机的结构。图中的较上一层神经元组成隐层,较下的神经元组成显元。每一层都可以用一个向量来表示,每一维表示每个神经元。注意这两层间的对称 (双向) 连接。 

    神经元之间的条件独立性 
    应注意到,显层和隐层内部的神经元都没有互连,只有层间的神经元有对称的连接线。这样的好处是,在给定所有显元的值的情况下,每一个隐元取什么值是互不相关的。也就是说, 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     同样,在给定隐层时,所有显元的取值也互不相关: 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     
    有了这个重要性质,我们在计算每个神经元的取值情况时就不必每次计算一个,而是同时并行地计算整层神经元。 
     
    使用 RBM 的过程 
    假设我们现在已经得到一个训练好的 RBM,每个隐元与显元间的权重用矩阵
    W表示,且: 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
      
    其中Wij代表从第i个显元到第j个隐元的权重,M代表显元的个数,N代表隐元的个数。那么,当我们把一条新来的数据【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen附给 (clamp to) 显层后,RBM 将会依照权值W来决定开启或关闭隐元。具体的操作如下: 
    首先,将每个隐元的激励值 (activation) 计算出来: 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     注意,这里用到了前面提到的神经元之间的条件独立性。 
    然后,将每个隐元的激励值都用 S 形函数进行标准化,变成它们处于开启状 (用 1 表示) 的概率值: 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     
    此处的 S 形函数我们采用的是 Logistic 函数: 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
    至此,每个隐元hj开启的概率被计算出来了。其处于关闭状态 (用 0 表示) 的概率自然也就是 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
    那么到底这个元开启还是关闭,我们需要将开启的概率与一个从 0, 1 均匀分布中抽取的随机值 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     进行如下比较 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
    然后开启或关闭相应的隐元。
    给定隐层,计算显层的方法是一样的。 

    训练 RBM 
    RBM 的训练过程,实际上是求出一个最能产生训练样本的概率分布。也就是说,要求一个分布,在这个分布里,训练样本的概率最大。由于这个分布的决定性因素在于权值W ,所以我们训练 RBM 的目标就是寻找最佳的权值。为了保持读者的兴趣,这里我们不给出最大化对数似然函数的推导过程,直接说明如何训练 RBM。 
    G. Hinton 提出了名为对比散度 (Contrastive Divergence) 的学习算法。下面我们来详述它的具体过程。 
    我们沿用前文的符号记法。 
    算法1. 对比散度 
    对于训练集中的每一条记录
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
      
    如此训练之后的 RBM 就能较为准确地提取显层的特征,或者根据隐层所代表
    的特征还原显层了。 


    深度信念网络 
    前文我们已经介绍了 RBM 的基本结构和其训练、使用过程,接下来我们介绍DBN 的相关内容。
    DBN 是由多层 RBM 组成的一个神经网络,它既可以被看作一个生成模型,也可以当作判别模型,其训练过程是:使用非监督贪婪逐层方法去预训练获得权值。 
    训练过程: 
    1. 首先充分训练第一个 RBM; 
    2. 固定第一个 RBM 的权重和偏移量,然后使用其隐性神经元的状态,作为第二个 RBM 的输入向量; 
    3. 充分训练第二个 RBM 后,将第二个 RBM 堆叠在第一个 RBM 的上方; 
    4. 重复以上三个步骤任意多次; 
    5. 如果训练集中的数据有标签,那么在顶层的 RBM 训练时,这个 RBM 的显层中除了显性神经元,还需要有代表分类标签的神经元,一起进行训练: 
    a) 假设顶层 RBM 的显层有 500 个显性神经元,训练数据的分类一共分成了 10 类; 
    b) 那么顶层 RBM 的显层有 510 个显性神经元,对每一训练训练数据,相应的标签神经元被打开设为 1,而其他的则被关闭设为 0。 
    6. DBN 被训练好后如下图: (示意) 
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     图 3 训练好的深度信念网络。图中的绿色部分就是在最顶层 RBM 中参与训练的标签。注意调优 (FINE-TUNING) 过程是一个判别模型 
     另:
    【转】深度学习--深度信念网络(Deep Belief Network) - 路过天堂_ellen - 狗狗的地盘_ellen
     
    调优过程 (Fine-Tuning) : 
    生成模型使用 Contrastive Wake-Sleep 算法进行调优,其算法过程是: 
    1. 除了顶层 RBM,其他层 RBM 的权重被分成向上的认知权重和向下的生成权重; 
    2. Wake 阶段:认知过程,通过外界的特征和向上的权重 (认知权重) 产生每一层的抽象表示 (结点状态) ,并且使用梯度下降修改层间的下行权重 (生成权重) 。也就是“如果现实跟我想象的不一样,改变我的权重使得我想
    象的东西就是这样的”。 
    3. Sleep 阶段:生成过程,通过顶层表示 (醒时学得的概念) 和向下权重,生成底层的状态,同时修改层间向上的权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概
    念”。 

    使用过程 :
    1. 使用随机隐性神经元状态值,在顶层 RBM 中进行足够多次的吉布斯抽样; 
    2. 向下传播,得到每层的状态。 

     
    推荐阅读 
    论文 
    1. Representation Learning: A Review and New Perspectives, Yoshua Bengio, Aaron Courville, Pascal Vincent, Arxiv, 2012. 
    2. The monograph or review paper Learning Deep Architectures for AI (Foundations & Trends in Machine Learning, 2009). 
    3. Deep Machine Learning – A New Frontier in Artificial Intelligence Research – a survey paper by Itamar Arel, Derek C. Rose, and Thomas P. Karnowski. 
    4. A Fast Learning Algorithm for Deep Belief Nets by Geoffrey E. Hinton and Simon Osindero. 
    博文和网络教程 
    1. Introduction to Restricted Boltzmann Machines by Edwin Chen. 
    2. An Introduction to Restricted Boltzmann Machines by Yuhuan Jiang. 
    3. Restricted Boltzmann Machine - Short Tutorial by iMonad. 
    4. 《深度学习学习笔记整理系列》 by Zouxy. 


    下面是对上一面的补充

    Deep Belief Networks深信度网络

            DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和 P(Label|Observation)都做了评估,而判别模型仅仅而已评估了后者,也就是P(Label|Observation)。对于在深度神经网络应用传统的BP算法的时候,DBNs遇到了以下问题:

    (1)需要为训练提供一个有标签的样本集;

    (2)学习过程较慢;

    (3)不适当的参数选择会导致学习收敛于局部最优解。

           DBNs由多个限制玻尔兹曼机(Restricted Boltzmann Machines)层组成,一个典型的神经网络类型如图三所示。这些网络被“限制”为一个可视层和一个隐层,层间存在连接,但层内的单元间不存在连接。隐层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。

           首先,先不考虑最顶构成一个联想记忆(associative memory)的两层,一个DBN的连接是通过自顶向下的生成权值来指导确定的,RBMs就像一个建筑块一样,相比传统和深度分层的sigmoid信念网络,它能易于连接权值的学习。

           最开始的时候,通过一个非监督贪婪逐层方法去预训练获得生成模型的权值,非监督贪婪逐层方法被Hinton证明是有效的,并被其称为对比分歧(contrastive divergence)。

           在这个训练阶段,在可视层会产生一个向量v,通过它将值传递到隐层。反过来,可视层的输入会被随机的选择,以尝试去重构原始的输入信号。最后,这些新的可视的神经元激活单元将前向传递重构隐层激活单元,获得h(在训练过程中,首先将可视向量值映射给隐单元;然后可视单元由隐层单元重建;这些新可视单元再次映射给隐单元,这样就获取新的隐单元。执行这种反复步骤叫做吉布斯采样)。这些后退和前进的步骤就是我们熟悉的Gibbs采样,而隐层激活单元和可视层输入之间的相关性差别就作为权值更新的主要依据。

           训练时间会显著的减少,因为只需要单个步骤就可以接近最大似然学习。增加进网络的每一层都会改进训练数据的对数概率,我们可以理解为越来越接近能量的真实表达。这个有意义的拓展,和无标签数据的使用,是任何一个深度学习应用的决定性的因素。

           在最高两层,权值被连接到一起,这样更低层的输出将会提供一个参考的线索或者关联给顶层,这样顶层就会将其联系到它的记忆内容。而我们最关心的,最后想得到的就是判别性能,例如分类任务里面。

           在预训练后,DBN可以通过利用带标签数据用BP算法去对判别性能做调整。在这里,一个标签集将被附加到顶层(推广联想记忆),通过一个自下向上的,学习到的识别权值获得一个网络的分类面。这个性能会比单纯的BP算法训练的网络好。这可以很直观的解释,DBNs的BP算法只需要对权值参数空间进行一个局部的搜索,这相比前向神经网络来说,训练是要快的,而且收敛的时间也少。

           DBNs的灵活性使得它的拓展比较容易。一个拓展就是卷积DBNs(Convolutional Deep Belief Networks(CDBNs))。DBNs并没有考虑到图像的2维结构信息,因为输入是简单的从一个图像矩阵一维向量化的。而CDBNs就是考虑到了这个问题,它利用邻域像素的空域关系,通过一个称为卷积RBMs的模型区达到生成模型的变换不变性,而且可以容易得变换到高维图像。DBNs并没有明确地处理对观察变量的时间联系的学习上,虽然目前已经有这方面的研究,例如堆叠时间RBMs,以此为推广,有序列学习的dubbed
    temporal convolutionmachines,这种序列学习的应用,给语音信号处理问题带来了一个让人激动的未来研究方向。

           目前,和DBNs有关的研究包括堆叠自动编码器,它是通过用堆叠自动编码器来替换传统DBNs里面的RBMs。这就使得可以通过同样的规则来训练产生深度多层神经网络架构,但它缺少层的参数化的严格要求。与DBNs不同,自动编码器使用判别模型,这样这个结构就很难采样输入采样空间,这就使得网络更难捕捉它的内部表达。但是,降噪自动编码器却能很好的避免这个问题,并且比传统的DBNs更优。它通过在训练过程添加随机的污染并堆叠产生场泛化性能。训练单一的降噪自动编码器的过程和RBMs训练生成模型的过程一样。



    个人理解:
    在DBNs网络的中其训练是逐层次的,每一层训练好之后才进行下一层的叠加,计算这一层的参数的,
    还有就是DBNs可以看做是一种无监督的自编码的过程其最后一层可以加入分类成份进行训练,SAE,SDAE,DBN可以看做是一个大的类型,缺点是只能是一维的数据。

    原文转自:http://blog.csdn.net/losteng/article/details/51001247

    展开全文
  • 深度信念网络,有代码,有实例,有数据。 用于深度网络预训练。 深度信念网络,有代码,有实例,有数据。 用于深度网络预训练。
  • 深度信念网络,数据实例代码一应俱全。 用于深度网络预训练
  • 深度信念网络曾照亮了深度学习的前进之路,今天,Hinton 通过远程视频演讲,再一次为我们展现了DBN的思想与理论之美。2006年,研究者对深度神经网络的兴趣再度复兴,而这主要归功于Hinton等人发现的高效新方法。借助...

    深度信念网络曾照亮了深度学习的前进之路,今天,Hinton 通过远程视频演讲,再一次为我们展现了DBN的思想与理论之美。

    2006年,研究者对深度神经网络的兴趣再度复兴,而这主要归功于Hinton等人发现的高效新方法。借助深度信念网络(Deep Belief Nets, DBN),当时研究者可以在未标注数据上预训练深度神经网络,这是一种生成模型的方式。预训练完成后,神经网络可以在标注数据上实现判别式的精调,从而获得很好的效果。

    这就是最初深度网络的训练方法,也是令深度学习进入ML社区的开创性新研究。尽管目前训练深度神经网络不再需要这种预训练,但它的思想及做法仍深深影响着当前的研究者。

    刚刚,Geoffrey Hinton受邀远程为北大学子做了一场分享,深入介绍了深度信念网络的理论知识。

    101cf72ac79f03c0f362f02133fdd176.png

    在这一次演讲中,Hinton展示了深度信念网络的预训练过程,并介绍了它如何从玻尔兹曼机的早期训练过程中演化出来。Hinton表示,DBN在理论上是非常优美的,但却过于低效而无法应用于实践。此外,对于训练密集连接型信念网络,Hinton还将介绍预训练过程如何克服主要的实践问题。

    应讲者要求,此次演讲没有回放,也不会公开录像,所以小编只记录了演讲PPT给读者们(也因为没听懂),感兴趣的读者可作为学习材料使用。

    什么是深度信念网络

    深度信念网络是第一批成功应用深度架构训练的非卷积模型之一。 在引入深度信念网络之前,研究社区通常认为深度模型太难优化,还不如使用易于优化的浅层ML模型。2016年,Hinton等研究者在Science上表示,深度信念网络在MNIST数据集上表现超过带核函数的支持向量机,以此证明深度架构是能够成功的。

    论文1:Reducing the Dimensionality of Data with Neural Networks

    论文地址:https://science.sciencemag.org/content/313/5786/504

    论文2:A fast learning algorithm for deep belief nets

    论文地址:https://www.cs.toronto.edu/~hinton/absps/fastnc.pdf

    尽管现在与其他无监督或生成学习算法相比,深度信念网络大多已经失去了研究者青睐并很少使用,但它们在深度学习历史中仍然有非常重要的作用。

    此外,如果需要理解DBN,那么首先需要知道什么是受限玻尔兹曼机(RBM)。因为深度信念网络就是受限玻尔兹曼机的堆叠,并采用一种贪心的方式训练。

    受限玻尔兹曼机

    RBM是两层神经网络,这些浅层神经网络是DBN(深度信念网络)的构建块。RBM的第一层被称为可见层或者输入层,它的第二层叫做隐藏层。RBM之所以加上“受限”,主要是因为不存在层级间的通信。RBM在前传的过程中看上去和全连接没什么区别,但实际上它是一种无向图,所以还有一个反向过程。

    2f7ecf8b61e006f297a5d605f815ca91.png

    除了前传,RBM以一种无监督的方式通过自身来重建数据。如上图所示,在重建阶段,第一个隐藏层的激活状态变成了反向传递过程中的输入。它们与每个连接边相同的权重相乘,就像x在前向传递的过程中随着权重调节一样。这些乘积的和在每个可见节点处又与可见层的偏置项相加,这些运算的输出就是一次重建,也就是对原始输入的一个逼近。

    如果能重建出来对应的观察样本,那么就表示RBM获得的隐藏表征非常优质。如下选自Deep Learning书中描述了三种早期的神经网络。

    f5ad768dbe607490a3254917ce60faa8.png

    a) 受限玻尔兹曼机,b) 深度信念网络,c) 深度玻尔兹曼机。其中带箭头表示有向图,无箭头表示无向图。

    深度信念网络

    深度信念网络是一种深层的概率有向图模型,其图结构由多层的节点构成。网络的最底层为可观测变量,其它层节点都为隐变量。最顶部的连接是无向的,其他层之间的连接是有向的。它的目的主要在获取可观测变量下,推断未知变量的状态,并调整隐藏状态以尽可能重构出可观测数据。

    在Hinton一个多小时的演讲中,它从信念网络到受限玻尔兹曼机,从基本思想到理论解析展示了整个深度信念网络的全景图。不过Hinton老爷子的演讲还挺难懂的,想要了解的同学可以看看完整的PPT。

    91faec3795ca8ed3db2b413131d3f896.png
    cd08a63872526bacfc3cb690fa123455.png
    8a02557176da6a34ff46b64814ff1219.png
    136949d24f485bafd267204532853697.png
    e41898fb6e95d2090fe3db17b8e4d667.png
    e46ed6cd555b9dfd5391faf4fbca75ed.png
    4f249cc5cb3c0bcc9f0bf40cfc2069ca.png
    3c2e5dd830e381b9e6bf2bdc1c55aeee.png
    1be1b090f4c5e90eb35e954599a88c3e.png
    4a5d8b4f4bde2bb40f24aa8eaa1dcddc.png
    6f28ee86375a041917495bcbe82736b0.png
    06fea9a4ec232811f4cab66d2bde9ea2.png
    4fae73d0a1b072fa4c9c893c87c217a8.png
    a0a1649c7e005a46397bee84e9191715.png
    a3c7e4f64b19cf390527314a7cd26d6d.png
    cd10f84c73e74b61d71c8ba36dacdce6.png
    809e14b3504f869084202f14a5707514.png
    64ab093d8ae852e27253ec427b75aaed.png
    40143d170d2c7fed9fc9ed295182930e.png
    ac3a5c18bbd632efdf01c8f78977a211.png
    2d382081b4c3aafd14e994709fb5da1d.png
    ae0092ed3d949aad3985ed4e169b7368.png
    83e7331963d3554b09a0c9d827af2f73.png
    80cc37040e83691ec7dfd114ea5927db.png
    292b9676a8d292bce0fb377a1b490f68.png
    d418f6f3d322992d7fb670d0e47ee1f6.png
    46f92f366086d3b365d99054bc0f5a6f.png
    e89fecdf8d944becab9366abc8d0d3c6.png
    8ebfa5cf4efdc0f8b56b72ae8ba64556.png
    9ace4a33239b650ca0f1b1ecee081a28.png
    1c6411d2239fe79a7e05f6d8267d3b55.png
    展开全文
  • 深度信念网络(Deep belief network, DBN)是一种基于深度学习的生成模型, 克服了传统梯度类学习算法在处理深层结构所面临的梯度消失问题, 近几年来已成为深度学习领域的研究热点之一.基于分阶段学习的思想, 人们设计...
  • 关键词:深度信念网络 静园5号院前沿讲座编者按2019年5月14日,图灵奖得主、多伦多大学教授Geoffery Hinton远程为北京大学前沿计算中心的师生献上了一场题为“Deep Belief Network”(深度信念网络)的精彩学术讲座。...
    15bb758bd9b88cdc5973ba377cebeb41.gif3c213995bced9f806703e00cbf90435b.png

    关键词深度信念网络 静园5号院前沿讲座

    f1d091a5ae4f562c9330c283637671eb.png

    编者按

    2019年5月14日,图灵奖得主、多伦多大学教授Geoffery Hinton远程为北京大学前沿计算中心的师生献上了一场题为“Deep Belief Network”(深度信念网络)的精彩学术讲座。本次报告由中心主任John Hopcroft教授主持,听众主要为北京大学及其他兄弟单位的师生。

    b3d763d10ed9f2393ce0324bde46a474.png

    Geoffery Hinton教授(网络图)

    在机器学习领域,Geoffery Hinton教授鼎鼎大名,他被称为“深度学习之父”,他于2006年对深度信念网络训练方法的研究成为深度学习领域崛起的标志性工作,直接推动了深度学习方法近年来的飞速发展与普及,为整个人工智能领域的发展做出了巨大的贡献。

    本次讲座中,Geoffery Hinton教授就为我们带来了他最核心的深度学习方向研究工作——“Deep Belief Network”,即深度信念网络,该模型为深度学习领域的奠基工作。Hinton教授从一般形式的信念网络开始,介绍了信念网络模型学习中遇到的难题,通过逐步引入玻尔兹曼机(Boltzmann Machine)乃至受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)作为信念网络每一层的模型,最终通过堆叠RBM得到了易于学习的深度信念网络模型。在讲解DBN训练方法的过程中,Hinton教授详细介绍了利用未标记数据逐层无监督预训练,最后通过少量标记数据对模型进行监督训练的深度神经网络训练方法,而该方法即为使得早期深度网络易于训练,从而打败传统浅层优化模型的关键算法,至今仍深刻影响着深度学习领域的研究。

    Belief Network(信念网络)

    Hinton教授从最简单的随机二值神经元(Stochastic binary neurons)模型讲起,从概率的角度构建神经网络模型的基本单元——神经元(Neuron),每个神经元表示一个随机变量。而通过带权有向边将每个随机变量的结点连接为一个有向图,即为信念网络(Belief Nets,BN)模型。

    c990ea408156ff1a284b422fa764a330.png

    虽然通过BN可以容易地从其叶子结点生成无偏的结果(Effect)样本,即网络所“相信”的数据,但要想对所有可能的隐含起因(Cause)状态组合来推断其后验概率却很困难,甚至想从其后验概率中得到一个采样数据都很难,这使得拥有大量参数的深度信念网络模型 (Deep Belief Nets,DBN)难以学习。唯有得到对于观测数据的隐含状态后验概率,信念网络的学习才会变得容易。

    接下来,Hinton教授详细讨论了Sigmoid信念网络的具体学习策略。每一个神经元的训练策略为,优化模型参数w以最大化能够生成训练样本中该单元二值状态的父单元二值状态的采样对数概率(log probability)。参数更新策略如下:

    f45c92b3a2b90c64821bf50511d2c880.png

    但该方法依然存在Explaining Away的问题。Explaining Away是指,即使两个隐含起因变量之间是相互独立的,他们依然会由于所共同决定的结果变量而变得相互关联。除此之外,后验概率(Posterior)除了依赖于先验概率(Prior),同时也依赖于似然度(Likelihood)。这使得学习某一层的参数w时,还需要知道更高层的参数,即不同层的参数之间是相互作用的。而估计第一个隐层的先验概率也十分困难。综合这几点,Hinton教授指出,对Sigmoid Belief Nets进行逐层训练的确是困难的。

    Boltzmann Machine(玻尔兹曼机)

    而除了像Sigmoid Belief Net这种利用有向无环图来连接二值随机神经元的方式,Hinton教授在1983年便已经提出了另一种生成式神经网络的模型,即Boltzmann Machine,该模型通过对称带权的边(即无向边)来连接二值随机神经元。

    cf5fb8ce8ec21578dc6b370b0ca9fb0f.png

    Hinton教授给出了Boltzmann Machine的能量函数(Energy Function)的定义:

    2fe3d3add27518926334d86ca34eff74.png

    以及每个神经元状态变化对于全局能量的影响:

    1279a497727dedace70186fc47bc6723.png

    为了从Boltzmann Machine中生成样本,只需要不断地根据每个单元的后验概率p(si=1)更新其状态即可,p(si=1)的定义同前图中随机神经元的定义一致。这样得到的全局状态的概率正比于exp(-E)。

    而Boltzmann Machine的学习目标为最大化生成训练集中的可见二值状态的联合概率,这与按照如下方式获得N个训练样本向量的概率是等价的:

    1. 在没有外部输入的前提下,使得网络N次达到平稳分布(stationary distribution);

    2. 每次采样得到一个可见的样本向量。

    但由于两个隐含单元的权重之间相互依赖,使得Boltzmann Machine的学习变得困难。因此,Hinton教授进一步限制了神经元之间的连接,保证同一层隐含单元之间没有连接存在,这就是受限玻尔兹曼机(RBM)。

    Restricted Boltzmann Machine

    (RBM,受限玻尔兹曼机)

    由于隐含单元的状态之间没有相互依赖关系,RBM相比于有向信念网络在后验概率采样上具有极大优势。

    084f3779c90ac41aa30bcbd8397cc3bd.png

    左:RBM

    右:Maximum likelihood learning algorithm for an RBM

    RBM可以通过一种轮流更新隐含单元与可见单元参数的迭代方式进行学习,更新公式如下:

    05190513cd1688cfbe66dbae68fe5ff3.png

    但实际中,常常通过一种更为迅速的方式进行RBM的学习,这种方法类似于Contrastive Divergence Learning,虽然没有计算真正的log likelihood,但仍是其他一种目标函数的梯度更新的近似。

    8e61de47f4f18f6c065413e1bfe55ce2.png

    通过将多层RBM堆叠起来,即可搭建一个深度的神经网络,这种深度信念网络可以通过逐层的方式训练。第一层RBM直接输入数据特征,而第二层则将第一层的输出视为输入特征,后面的层也重复该计算过程。可以证明,在网络中每增加一层RBM,便会提高训练数据log likelihood的variational lower bound。以上即为单层RBM的学习过程,由于没有用到标记数据,而是通过一种无监督的方式对网络进行预训练,因此称为神经网络的“预训练”方法。

    在预训练后,即可以通过增加一个输出层来用反向传播的方式来判别式地对网络进行精细调整“Fine-tuning”。相比于直接用反向传播的方式对网络进行训练,这种方式能够克服很多训练中遇到的困难。预训练可以使得网络的参数先达到一种较为合理的区间,即获得一种相对较好的初始值,这样在判别式后处理的过程中只需要进行局部搜索即可达到较优的参数值。

    最后,Hinton教授总结到,RBM提供了一种简单的无监督学习方式来对网络进行预训练,使得进一步的判别式微调效果更好。这种无监督的训练方式对于解决当前领域内难题仍然具有很大的价值,毕竟大部分数据都缺乏标记,且目前并没有得到充分利用。近年来,已经有工作注意到无监督学习的价值,如BERT,已经在网络学习中引入类似机制。Hinton教授相信在深度学习领域今后的发展中,类似的思想会得到越来越多的重视,发挥更大的作用。

    以上即为对Hinton教授本次讲座的总结,由于Hinton教授的讲座中涉及较多较为复杂的数学内容,有很多小编并没有理解透彻,经Hinton教授授权,在此将报告的Slides附上以方便大家学习,点击“阅读原文”即可下载。

    678cc9dd4043455d3865a92c36751f21.png

    文字整理 | 孔祥宇

    Computer Vision and Digital Arts (CVDA)

    往 期 报 告

    bcbc83bc2c62674ac185221ca22c72a1.png
    • 听John Hopcroft教授畅谈AI与深度学习

    • 奥斯卡技术奖得主Jos Stam博士漫谈艺术、数学与科学

    • 西蒙弗雷泽大学张皓教授谈三维形状正确表达及生成

    • 斯坦福大学叶荫宇教授谈机器学习中的数学原理

    • 圣母大学陈子仪教授谈深度学习与医学图像结合的挑战和发现

    dd9ac801a0033f750a0c6c4687532ab9.gif

    —   版权声明  —

    本微信公众号所有内容,由北京大学前沿计算研究中心微信自身创作、收集的文字、图片和音视频资料,版权属北京大学前沿计算研究中心微信所有;从公开渠道收集、整理及授权转载的文字、图片和音视频资料,版权属原作者。本公众号内容原作者如不愿意在本号刊登内容,请及时通知本号,予以删除。

    06b61644dce45518dcc8cfde38f3a7c4.giff364728f9520dc1071fe22a07465da93.gif21f8b63ca0953e272d3fb4a15be34beb.png

    “阅读原文”下载报告PPT

    展开全文
  • 这是一篇题为“使用专用硬件架构计算深度信念网络”的论文的补充信息的一部分。 发表于 IEEE IJCNN 2014 会议。 http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6889903 在机器学习中,DBN 是一种生成图...
  • 深度信念网络DBN

    2016-03-29 20:45:33
    深度信念网络实现手写识别,注意与DBM区别开来
  • 深度学习中的深度信念网络,用于数据的分类和预测 (Deep belief network in deep learning, used for the classification and prediction of data )
  • 深度信念网络回归算法,内含受限玻尔兹曼机训练、BP微调拟合,最终完成深度信念网络回归算法的训练。算法以Python语言完成,包含多个子文件,全部写入该word文档。
  • 自己编写的深度信念网络模型程序,可以直接调用。本人用DBN进行了光伏发电预测,效果很好。
  • chap-深度信念网络.pdf

    2019-05-09 14:12:57
    本篇非常简要地介绍了深度信念网络的基本概念。文章先简要介绍了深度信念网络(包括其应用实例)。接着分别讲述了:(1) 其基本组成结构——受限玻尔兹曼机的的基本情况,以及,(2) 这个基本结构如何组成深度信念网络...
  • 深度信念网络分类算法,内含受限玻尔兹曼机训练、BP分类微调拟合,最终完成深度信念网络分类算法的训练。算法以Python语言完成,包含多个子文件,全部写入该word文档。文档注释详细,适合学习。
  • 在分析现有链路质量预测模型的基础上,提出基于深度信念网络的无线传感器网络链路质量预测模型。采用支持向量分类机对链路质量进行评估,获得链路质量等级;采用深度信念网络提取链路质量特征,并采用softmax预测下...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,402
精华内容 2,960
关键字:

深度信念网络