精华内容
下载资源
问答
  • python DBN代码

    2016-09-02 17:49:49
    python版的DBN代码
  • matlab实现dbn代码 GA-DBN-Classification Using MATLAB and DeepBeliefNetworksToolbox to implement a GA-DBN for classification task, Genetic algorithm(GA) is used to optimize the neuron's number of ...
  • DBN代码案例

    2018-08-27 01:27:17
    无监督学习 提取特征
  • DBN代码注释

    2014-11-02 18:17:55
    deep learning 代码代码注释
  • DBN代码解析

    千次阅读 2017-03-27 09:15:12
    DeepLearnToolbox的源码, ...test_example_DBN.m: 测试代码 [cpp] view plain copy   function test_example_DBN  load ../data/mnist_40000_10000;  addpath('../DBN');  addpath('.

    转自:http://blog.csdn.net/Rainbow0210/article/details/53010694?locationNum=1&fps=1

    DBN的实现(DeepLeranToolBox): 

    这里是将DBN作为无监督学习框架来使用的,将“学习成果”赋给ANN来完成分类。

    训练集是60000张28*28的手写数字图片,测试集是10000张28*28的手写数字图片,对应的单幅图片的特征维度为28*28=784

    % function test_example_DBN
    load mnist_uint8;
    
    train_x = double(train_x) / 255;
    test_x  = double(test_x)  / 255;
    train_y = double(train_y);
    test_y  = double(test_y);
    
    %%  ex2 train a 100-100 hidden unit DBN and use its weights to initialize a NN
    rand('state',0)
    %train dbn
    %对DBN的初始化
    %除了输入层之外有两层,每层100个神经元,即为两个受限玻尔兹曼机
    dbn.sizes = [100 100];
    %训练次数
    opts.numepochs =   2;
    %每次随机的样本数量
    opts.batchsize = 100;
    %更新方向,目前不知道有什么用
    opts.momentum  =   0;
    %学习速率
    opts.alpha     =   1;
    %建立DBN
    dbn = dbnsetup(dbn, train_x, opts);
    %训练DBN
    dbn = dbntrain(dbn, train_x, opts);
    %至此,已完成了DBN的训练
    
    %unfold dbn to nn
    %将DBN训练得到的数据转化为NN的形式
    nn = dbnunfoldtonn(dbn, 10);
    
    %设置NN的阈值函数为Sigmoid函数
    nn.activation_function = 'sigm';
    
    %train nn
    %训练NN
    opts.numepochs =  3;
    opts.batchsize = 100;
    nn = nntrain(nn, train_x, train_y, opts);
    [er, bad] = nntest(nn, test_x, test_y);
    
    assert(er < 0.10, 'Too big error');
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    function dbn = dbnsetup(dbn, x, opts)
        %n是单个样本的特征维度,784
        n = size(x, 2);
        %dbn.sizes是rbm的维度,[784 100 100]
        dbn.sizes = [n, dbn.sizes];
    
        %numel(dbn.sizes)返回dbn.sizes中的元素个数,对于[784 100 100],则为3
        %初始化每个rbm
        for u = 1 : numel(dbn.sizes) - 1
            %初始化rbm的学习速率
            dbn.rbm{u}.alpha    = opts.alpha;
            %学习方向
            dbn.rbm{u}.momentum = opts.momentum;
            %第一个rbm是784-100, 第二个rbm是100-100
            %对应的连接权重,初始值全为0
            dbn.rbm{u}.W  = zeros(dbn.sizes(u + 1), dbn.sizes(u));
            %用于更新的权重,下同,不再注释
            dbn.rbm{u}.vW = zeros(dbn.sizes(u + 1), dbn.sizes(u));
            %第一个rbm是784,第二个rbm是100
            %显层的偏置值,初始值全为0
            dbn.rbm{u}.b  = zeros(dbn.sizes(u), 1);
            dbn.rbm{u}.vb = zeros(dbn.sizes(u), 1);
            %第一个rbm是100,第二个rbm是100
            %隐层的偏置值,初始值全为0
            dbn.rbm{u}.c  = zeros(dbn.sizes(u + 1), 1);
            dbn.rbm{u}.vc = zeros(dbn.sizes(u + 1), 1);
        end
    end
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    function dbn = dbntrain(dbn, x, opts)
        % n = 1;
        % x = train_x,60000个样本,每个维度为784,即60000*784
        %n为dbn中有几个rbm,这里n=2
        n = numel(dbn.rbm);
        %充分训练第一个rbm
        dbn.rbm{1} = rbmtrain(dbn.rbm{1}, x, opts);
        %通过第一个rbm,依次训练后续的rbm
        for i = 2 : n
            %建立rbm
            x = rbmup(dbn.rbm{i - 1}, x);
            %训练rbm
            dbn.rbm{i} = rbmtrain(dbn.rbm{i}, x, opts);
        end
    
    end
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    function x = rbmup(rbm, x)
        %sigm为sigmoid函数
        %通过隐层计算下一层
        x = sigm(repmat(rbm.c', size(x, 1), 1) + x * rbm.W');
    end
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    function rbm = rbmtrain(rbm, x, opts)
        %矩阵x中的元素必须是浮点数,且取值为[0,1]
        assert(isfloat(x), 'x must be a float');
        assert(all(x(:)>=0) && all(x(:)<=1), 'all data in x must be in [0:1]');
    
        %m为样本数量,这里m = 60000
        m = size(x, 1);
        %训练批次,每一批是opts.batchsize个样本,注意这里opts.batchsize必须整除m
        numbatches = m / opts.batchsize;
    
        %opts.batchsize必须能整除m
        assert(rem(numbatches, 1) == 0, 'numbatches not integer');
    
        %opts.numepochs,训练次数
        for i = 1 : opts.numepochs
    
            %随机打乱1-m的数,也就是1-m的随机数,kk是1-m的随机数向量
            kk = randperm(m);
    
            %训练结果的eer
            err = 0;
    
            %对每一批数据进行训练
            for l = 1 : numbatches
                %取出opts.batchsize个待训练的样本
                %循环结束后所有样本都进行过训练,且仅训练了一次
                batch = x(kk((l - 1) * opts.batchsize + 1 : l * opts.batchsize), :);
    
                %赋值给v1
                %这里v1是100*784的矩阵
                v1 = batch;
                %通过v1计算h1的概率,吉布斯抽样
                h1 = sigmrnd(repmat(rbm.c', opts.batchsize, 1) + v1 * rbm.W');
                %通过h1计算v1的概率,吉布斯抽样
                v2 = sigmrnd(repmat(rbm.b', opts.batchsize, 1) + h1 * rbm.W);
                %通过v2计算h2的概率,吉布斯抽样
                h2 = sigm(repmat(rbm.c', opts.batchsize, 1) + v2 * rbm.W');
    
                %至此,h1,v1,h2,v2均已计算出来,即完成了对比散度算法的大半,只剩下相应权重的更新
    
                %权重更新的差值计算
                c1 = h1' * v1;
                c2 = h2' * v2;
    
                rbm.vW = rbm.momentum * rbm.vW + rbm.alpha * (c1 - c2)     / opts.batchsize;
                rbm.vb = rbm.momentum * rbm.vb + rbm.alpha * sum(v1 - v2)' / opts.batchsize;
                rbm.vc = rbm.momentum * rbm.vc + rbm.alpha * sum(h1 - h2)' / opts.batchsize;
    
                %更新权重
                rbm.W = rbm.W + rbm.vW;
                rbm.b = rbm.b + rbm.vb;
                rbm.c = rbm.c + rbm.vc;
    
                %计算err
                err = err + sum(sum((v1 - v2) .^ 2)) / opts.batchsize;
            end
            %打印结果
            disp(['epoch ' num2str(i) '/' num2str(opts.numepochs)  '. Average reconstruction error is: ' num2str(err / numbatches)]);
    
        end
    end
    展开全文
  • Matlab深度置信网络DBN代码解析用于机器学习的神经网络 Geoff Hinton 的 Coursera 课程“机器学习神经网络”的 Matlab 源文件。 Geoff Hinton 于 2019 年从 Coursera 中删除了该课程,因为他觉得现在已经过时了。 ...
  • 自己编写的DBN代码

    2014-01-10 20:42:54
    我自己编写的实现DBN算法的代码,运行过了,很靠谱
  • Matlab之DBN代码

    2021-04-23 10:42:36
    我晕,做毕设需要用到DBN算法,由于第一次接触无论是原理还是代码都不懂,于是网上找了一些代码折腾了一个月,python和matlab都试过了,不断调整各种参数,训练数据和测试数据也弄的很明显,但就是预测的不准确。...

    我晕,做毕设需要用到DBN算法,由于第一次接触无论是原理还是代码都不懂,于是网上找了一些代码折腾了一个月,python和matlab都试过了,不断调整各种参数,训练数据和测试数据也弄的很明显,但就是预测的不准确。
    最后,我打算放弃DBN使用SVM,结果发现SVM训练同样的数据,出现了同样预测不准确的问题,两者一对比,发现只有数据归一化函数是相同的,换了一个归一化函数,一下就训练出来了,当然并不是这个函数的问题,可能只是我的数据不适合使用这个归一化函数,折腾了这么久,没想到是这个问题,在此记录一下。

    Matlab+DBN工具箱安装

    直接下载deeplearningtoolbox工具箱,放置到matlab的toolbox路径中,我的路径是:

    D:\Program Files\MATLAB\R2016a\toolbox
    

    然后打开matlab中的设置路径->添加并包括子文件夹->选择刚刚放入的deeplearningtoolbox函数保存即可
    在这里插入图片描述
    在这里插入图片描述

    DBN代码

    % function test_example
    t0 = cputime;
    %训练数据
    train_x=load('E:\QtStudy\QTproject\outsignalData\trainData\trainData.txt');
    train_y=load('E:\QtStudy\QTproject\outsignalData\trainData\trainlabelData.txt');
    
    %测试数据
    test_x=load('E:\QtStudy\QTproject\outsignalData\testData\testData.txt');
    test_y=load('E:\QtStudy\QTproject\outsignalData\testData\testlabelData.txt');
    
    %数据归一化
    train_x=normr(train_x);  
    test_x=normr(test_x); 
    %  train_x=mapminmax(train_x,0,1); %之前一直用的这个作为数据归一化函数,气死我了
    
    rand('state',0)
    dbn.sizes = [20 10];  %设置网络隐藏单元数   输入维数-20-10-输出维数
    opts.numepochs =   500;       %设置训练迭代次数。
    opts.batchsize = 10;     %批次大小
    opts.momentum  =   0;    %动量
    opts.alpha     =   0.1;    % 学习率
    dbn = dbnsetup(dbn, train_x, opts);  %初始化RBM的参数
    [dbn,epochtrain,losstrain] = dbntrain(dbn, train_x, opts);   %开始训练  epochtrain和losstrain是自己在dbntrain函数里加的
    %  figure; visualize(dbn.rbm{1}.W');   %  Visualize the RBM weights
    
    %设置NN网络
    nn = dbnunfoldtonn(dbn, 2);           %设计一个有2个输出单元的NN,并用已经训练好的DBN的权值参数去初始化相应结构的NN网络
    nn.activation_function = 'sigm';        %设置激活函数为 sigm
     
    %训练
    opts.numepochs =  500;                   % 设置训练参数
    opts.batchsize =10;                           
    [nn, L,epochtest,losstest] = nntrain(nn, train_x, train_y, opts);   %训练网络  epochtest和epochtest是自己加的
    t1 = cputime-t0;
    [er, bad] = nntest(nn, test_x, test_y);     %测试网络错误率
    labels = nnpredict(nn, test_x);
    right = 1 - er;
    str = sprintf(['运行时间: ' num2str(t1/60) ' minutes' '. testing right rate is: ' num2str(right)]);
    disp(str);
    
    %绘制训练和测试的数据误差-训练次数图
    figure(1)
    plot(epochtrain,losstrain,'r');
    xlabel('epochtrain');
    ylabel('losstrain')
    figure(2)
    plot(epochtest,losstest,'r');
    xlabel('epochtest');
    ylabel('losstest')
    
    展开全文
  •  % Visualize the RBM weights %% ex2 train a 100-100 hidden unit DBN and use its weights to initialize a NN rand('state',0) %train dbn dbn.sizes = [100 100]; opts.numepochs = 1; opts.batchsize = ...

    从这里找到的,https:// github.co/ rasmusbergpalm/ DeepLearnToolbox

    当然,搜索深度学习工具箱也行。

    function test_example_DBN

    load mnist_uint8;

    train_x = double(train_x) / 255;

    test_x  = double(test_x)  / 255;

    train_y = double(train_y);

    test_y  = double(test_y);

    %%  ex1 train a 100 hidden unit RBM and visualize its weights

    rand('state',0)

    dbn.sizes = [100];

    opts.numepochs =   1;

    opts.batchsize = 100;

    opts.momentum  =   0;

    opts.alpha     =   1;

    dbn = dbnsetup(dbn, train_x, opts);

    dbn = dbntrain(dbn, train_x, opts);

    figure; visualize(dbn.rbm{1}.W');   %  Visualize the RBM weights

    %%  ex2 train a 100-100 hidden unit DBN and use its weights to initialize a NN

    rand('state',0)

    %train dbn

    dbn.sizes = [100 100];

    opts.numepochs =   1;

    opts.batchsize = 100;

    opts.momentum  =   0;

    opts.alpha     =   1;

    dbn = dbnsetup(dbn, train_x, opts);

    dbn = dbntrain(dbn, train_x, opts);

    %unfold dbn to nn

    nn = dbnunfoldtonn(dbn, 10);

    nn.activation_function = 'sigm';

    %train nn

    opts.numepochs =  1;

    opts.batchsize = 100;

    nn = nntrain(nn, train_x, train_y, opts);

    [er, bad] = nntest(nn, test_x, test_y);

    assert(er < 0.10, 'Too big error');

    报错是:

    epoch 1/1. Average reconstruction error is: 66.2661epoch 1/1. Average reconstruction error is: 66.2661epoch 1/1. Average reconstruction error is: 10.286Attempted to access lmisys(5); index out of bounds because numel(lmisys)=4.

    Error in lmiunpck (line 23)  rs=lmisys(4); rv=lmisys(5);  % row sizes of LMISET,LMIVAR

    Error in nnsetup (line 26)[LMI_set,LMI_var,LMI_term,data]=lmiunpck(lmisys);

    Error in dbnunfoldtonn (line 6)    nn = nnsetup([dbn.sizes outputsize]);

    Error in test_DBN (line 32)nn = dbnunfoldtonn(dbn, 10);

    展开全文
  • dbn = dbnsetup(dbn, train_x, opts); dbn = dbntrain(dbn, train_x, opts); figure; visualize(dbn.rbm{1}.W'); % Visualize the RBM weights %% ex2 train a 100-100 hidden unit DBN and use its weights to ...
  • 文件名称: DeepLearnToolbox-matlab下载 收藏√ [5 4 3 2 1]开发工具: matlab文件大小: 24132 KB上传时间: 2014-03-27下载次数: 46提 供 者: 杨耀飞详细说明:DBN代码 DBNs是一个概率生成模型,与传统的判别模型的...

    文件名称: DeepLearnToolbox-matlab891ea1e7dab975064c6bfd22796603ae.gif下载  收藏√  [443d104427974206832dc4b12407db70.gif

     5  4  3  2  1 fb9128a58cbeaabbeb3718ed75079ccf.gif]

    开发工具: matlab

    文件大小: 24132 KB

    上传时间: 2014-03-27

    下载次数: 46

    提 供 者: 杨耀飞

    详细说明:DBN代码 DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布。-DBN code DBNs generate a probability model, and determine the neural network model is relatively traditional, distributed generation model is to establish a joint observation data and tags.

    文件列表(点击判断是否您需要的文件,如果是垃圾请在下面评价投诉):

    DeepLearnToolbox-matlab

    .......................\CAE

    .......................\...\caeapplygrads.m

    .......................\...\caebbp.m

    .......................\...\caebp.m

    .......................\...\caedown.m

    .......................\...\caeexamples.m

    .......................\...\caenumgradcheck.m

    .......................\...\caesdlm.m

    .......................\...\caetrain.m

    .......................\...\caeup.m

    .......................\...\max3d.m

    .......................\...\scaesetup.m

    .......................\...\scaetrain.m

    .......................\CNN

    .......................\...\cnnapplygrads.m

    .......................\...\cnnbp.m

    .......................\...\cnnff.m

    .......................\...\cnnnumgradcheck.m

    .......................\...\cnnsetup.m

    .......................\...\cnntest.m

    .......................\...\cnntrain.m

    .......................\create_readme.sh

    .......................\data

    .......................\....\mnist_uint8.mat

    .......................\....\mnist_uint8_big.mat

    .......................\....\mnist_uint8_small.mat

    .......................\....\training_colorpatches_16x16_demo.mat

    .......................\DBN

    .......................\...\dbnsetup.m

    .......................\...\dbntrain.m

    .......................\...\dbnunfoldtonn.m

    .......................\...\rbmdown.m

    .......................\...\rbmtrain.m

    .......................\...\rbmup.m

    .......................\LICENSE

    .......................\NN

    .......................\..\nnapplygrads.m

    .......................\..\nnbp.m

    .......................\..\nnchecknumgrad.m

    .......................\..\nneval.m

    .......................\..\nnff.m

    .......................\..\nnpredict.m

    .......................\..\nnsetup.m

    .......................\..\nntest.m

    .......................\..\nntrain.m

    .......................\..\nnupdatefigures.m

    .......................\README.md

    .......................\README_header.md

    .......................\REFS.md

    .......................\SAE

    .......................\...\saesetup.m

    .......................\...\saetrain.m

    .......................\tests

    .......................\.....\runalltests.m

    .......................\.....\test_cnn_gradients_are_numerically_correct.m

    .......................\.....\test_example_CNN.m

    .......................\.....\test_example_DBN.m

    .......................\.....\test_example_NN.m

    .......................\.....\test_example_SAE.m

    .......................\.....\test_nn_gradients_are_numerically_correct.m

    .......................\util

    .......................\....\allcomb.m

    .......................\....\expand.m

    .......................\....\flicker.m

    .......................\....\flipall.m

    .......................\....\fliplrf.m

    .......................\....\flipudf.m

    .......................\....\im2patches.m

    .......................\....\makeLMfilters.m

    .......................\....\normalize.m

    .......................\....\patches2im.m

    .......................\....\randcorr.m

    .......................\....\randp.m

    .......................\....\rnd.m

    .......................\....\sigm.m

    .......................\....\sigmrnd.m

    .......................\....\softmax.m

    .......................\....\tanh_opt.m

    .......................\....\visualize.m

    .......................\....\whiten.m

    .......................\....\xunit

    .......................\....\.....\+xunit

    .......................\....\.....\......\+utils

    .......................\....\.....\......\......\arrayToString.m

    .......................\....\.....\......\......\compareFloats.m

    .......................\....\.....\......\......\comparisonMessage.m

    .......................\....\.....\......\......\containsRegexp.m

    .......................\....\.....\......\......\Contents.m

    .......................\....\.....\......\......\generateDoc.m

    .......................\....\.....\......\......\isAlmostEqual.m

    .......................\....\.....\......\......\isSetUpString.m

    .......................\....\.....\......\......\isTearDownString.m

    .......................\....\.....\......\......\isTestCaseSubclass.m

    .......................\....\.....\......\......\isTestString.m

    .......................\....\.....\......\......\parseFloatAssertInputs.m

    .......................\....\.....\......\......\stringToCellArray.m

    .......................\....\.....\assertElementsAlmostEqual.m

    .......................\....\.....\assertEqual.m

    .......................\....\.....\assertExceptionThrown.m

    输入关键字,在本站267万海量源码库中尽情搜索:

    帮助

    [ADPCM.rar] - ADPCM语音压缩程序,已经测试通过,将程序改写为verilog,并通过pwm在FPGA上实现语音的播放,该程序实现的是8bit,8k的wav文件

    [DeepLearnToolbox-master.rar] - 这是关于深度学习的一些很重要的代码 包括基础的深度学习 RBM等,还有用深度学习去训练神经网络等等

    [dbn-code.rar] - 深度学习dbn网络,使用MATLAB,有详细的注释

    [DeepLearnToolbox.zip] - 关于深度学习的比较好的代码参考资料,包括CAE,CNN,dbn,NN,SAE等基准程序

    [rbmtrain.zip] - 深度学习领域,dbn网络的训练代码,已经证实能够正常使用,用于matlab仿真专用

    [dbn.zip] - dbn源码,深度学习领域的适合初学者学习的代码之一,基础必备的内容。

    [dbn.zip] - Bayesian Inference of Signaling Network Topology in a

    Cancer Cell Line

    [Autoencoder_Code.rar] - 用于利用GPU训练dbn网络,包括pretraing和finetune,其中包含的rbm代码非常有用

    [DeepLearnToolbox-master.zip] - 深度学习工具箱的matlab程序,包括NN,CNN,CAE,SAE,dbn等多种深度学习算法。

    展开全文
  • 【实例简介】这是一个有关深度信念网络的事例,用matlab编写的,想用的小伙伴可以下载试试【实例截图】【核心代码】2bd394cc-73b6-461c-ab09-932eed631d8e└── DBN的matlab代码├── isir例子RBM│ ├── ...
  • matlab代码果蝇DBN 果蝇动态贝叶斯网络(DBN)项目的MATLAB代码 介绍 能够从时空表达数据推断基因调控网络是生物学中的主要问题。 本文提出了一种新的动态贝叶斯网络方法,我们通过使用果蝇果蝇的缺口基因问题来进行...
  • DBN代码,有详细注释,运行前先把deeplearn工具箱解压到matlab目录下。
  • DBN C++代码理解

    千次阅读 热门讨论 2014-09-12 10:32:15
    上一篇学习了RBM的代码,而
  • dbn matlab代码
  • dbn matlab代码FDIA_DBN 用于基准算法和攻击算法的matlab代码
  • Deep Belief Network深度信念网络(DBN的Matlab代码),可以运行test_example_DBN.m对手写数字进行训练学习
  • LBP-DBN人脸识别matlab代码

    热门讨论 2017-06-20 00:01:24
    这个程序的功能,是使用DBN算法来实现人脸识别,数据库使用ORL数据库,在迭代次数达到3000时,识别准确率98%左右 1-此程序使用的是LBP(Local Binary Pattern)来实现特征的提取 2-此程序还附带了画学习曲线的功能,...
  • dbn模型matlab代码
  • dbn模型matlab代码包括GBRBM-BBRBM-在内的受限玻尔兹曼机器的Tensorflow实现 通过Matlab进行RBM的应用有几个缺点。 一个严重的问题是计算时间非常耗时。 因为matlab很难在云服务器上运行,所以我将基于matlab的rbm...
  • DBN深度置信网络的实现

    千次阅读 热门讨论 2017-09-16 15:04:09
    DBN代码实现以及解读
  • dbn_svr代码遇到的问题及解决办法

    千次阅读 2015-07-23 21:00:26
    编写DBN_SVR代码,运行完dbn这一部分,执行 model = svmtrain(train_y ,train_x, cmd); 时, 报错如下: 原因:此DBN_SVR代码实在深度学习目录下运行的。 解决办法:将代码复制到libsvm目录下运行,则不存在上述...
  • DeepLearnToolbox DBN源码解析

    万次阅读 2014-03-08 16:21:31
    这几天看了下DeepLearnToolbox的源码,在此记录一下自己对DBN代码的理解。 test_example_DBN.m: 测试代码function test_example_DBN load ../data/mnist_40000_10000; addpath('../DBN'); addpath('../NN'); ...
  • [深度学习]Hinton DBN code 代码分析

    千次阅读 2014-03-04 15:59:26
    readme.txt 开头是版权声明 后来是介绍 ...minimize.m 是Conjugate Gradient code(共轭梯度代码?) 下面是共轭梯度的百度百科 http://baike.baidu.com/link?url=c_MQcCF_ojfJmhtidfxcXLPUOfT6ynjrCjhs6LE
  • yadlt代码笔记:tensorflow实现DBN

    千次阅读 热门讨论 2018-01-03 16:45:44
    在找DBN的tensorflow实现的时候发现了这么一个工具,github主页指路。里面有RNN, CNN, 基于玻尔兹曼机的网络等等模型的实现。官方文档也有不过版本较旧,没太大参考价值了。 安装和使用 可以通过pip安装,但还是...
  • DBN

    千次阅读 2018-09-18 09:18:38
    而且每一层 RBM 网络只能确保自身层内的 权值对该层特征向量映射达到最优,并不是对整个 DBN 的特征向量映射达到最优,所以反向传播网络还将错误信息自顶向下传播至每一层 RBM,微调整个 DBN 网络.RBM 网络训练模型的...
  • 用于指数家庭和声,RBM,DBN和relata的matlab代码 如何运行自己的EFH 要对自己的数据运行EFH,基本上,您需要做三件事: 编写四个函数,每个函数一个: 生成训练数据的潜在变量(对于实际数据,该值可能为null) ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,074
精华内容 1,229
关键字:

dbn代码