精华内容
下载资源
问答
  • 宽度学习matlab代码

    2019-01-08 16:25:37
    matlab代码,宽度学习matlab代码,宽度学习matlab代码
  • 宽度学习ppt

    2018-10-08 20:47:32
    宽度学习ppt,基于C. L. Philip Chen 教授发表的Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture,对内容进行了整理与概括
  • 宽度学习(Broad Learning System)

    万次阅读 多人点赞 2018-09-27 19:58:01
    宽度学习系统(BLS)一词的提出源于澳门大学科技学院院长陈俊龙于2018年1月发表的《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture》

    在这里插入图片描述

    一、宽度学习的前世今生

    宽度学习系统(BLS) 一词的提出源于澳门大学科技学院院长陈俊龙和其学生于2018年1月发表在IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS,VOL. 29, NO. 1 的一篇文章,题目叫《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture 》。文章的主旨十分明显,就是提出了一种可以和深度学习媲美的宽度学习框架。

    为什么要提出宽度学习? 众所周知,深度学习中最让人头疼之处在于其数量庞大的待优化参数,通常需要耗费大量的时间和机器资源来进行优化。

    宽度学习的前身实际上是已经被人们研究了很久的随机向量函数链神经网络 random vector functional-link neural network (RVFLNN),如图所示:
    在这里插入图片描述
    咋一看这网络结构没有什么奇特之处,其实也对,就是在单层前馈网络(SLFN)中增加了从输入层到输出层的直接连接。网络的第一层也叫输入层,第二层改名了,叫做增强层,第三层是输出层。具体来看,网络中有三种连接,分别是

    • (输入层 => 增强层)加权后有非线性变换
    • (增强层 => 输出层)只有线性变换
    • (输入层 => 输出层)只有线性变换

    所以在RVFLNN中只有增强层 是真正意义上的神经网络单元,因为只有它带了激活函数,网络的其他部分均是线性的。下面我们将这个网络结构扭一扭:
    在这里插入图片描述
    当我们把增强层和输入层排成一行时,将它们视为一体,那网络就成了由 A(输入层+增强层)到 Y 的线性变换了!线性变换对应的权重矩阵 W 就是 输入层加增强层输出层 之间的线性连接!!

    这时你可能要问:那输入层到增强层之间的连接怎么处理/优化?我们的回答是:不管它!!! 我们给这些连接随机初始化,固定不变!

    如果我们固定输入层到增强层之间的权重,那么对整个网络的训练就是求出 A 到 Y 之间的变换 W,而 W 的确定非常简单:W=A1YW = A^{-1}Y
    输入 X 已知,就可以求出增强层 A;训练数据的标签已知,就知道了 Y。接下来的学习就是一步到位的事情了。

    为什么可以这样做?
    深度学习费了老劲把网络层数一加再加,就是为了增加模型的复杂度,能更好地逼近我们希望学习到的非线性函数,但是不是非线性层数越多越好呢?理论早就证明单层前馈网络(SLFN)已经可以作为函数近似器了,可见增加层数并不是必要的。RVFLNN也被证明可以用来逼近紧集上的任何连续函数,其非线性近似能力就体现在增强层的非线性激活函数上,只要增强层单元数量足够多,要多非线性有多非线性!

    二、宽度学习系统(BLS)

    在这里插入图片描述
    之前介绍的是RVFLNN,现在来看BLS,它对输入层做了一点改进,就是不直接用原始数据作为输入层,而是先对数据做了一些变换,相当于特征提取,将变化后的特征作为原RVFLNN的输入层,这样做的意义不是很大,只不过想告诉你:宽度学习可以利用别的模型提取到的特征来训练,即可以可别的机器学习算法组装。现在我们不把第一层叫做输入层,而是叫它特征层

    当给定了特征 Z,直接计算增强层 H,将特征层和增强层合并成 A=[Z|H],竖线表示合并成一行。由于训练数据的标签 Y 已知,计算权重 W=A1YW = A^{-1}Y 即可。实际计算时,使用岭回归 来求解权值矩阵,即通过下面的优化问题来解W(其中σ1=σ2=v=u=2\sigma_1=\sigma_2=v=u=2):
    在这里插入图片描述
    解得
    在这里插入图片描述
    以上过程是一步到位,即当数据固定,模型结构固定,可以直接找到最优的参数 W

    然而在大数据时代,数据固定是不可能的,数据会源源不断地来。模型固定也是不现实的,因为时不时需要调整数据的维数,比如增加新的特征。这样一来,就有了针对以上网络的增量学习算法。注意,宽度学习的核心在其增量学习算法,因为当数据量上亿时,相当于矩阵 ZX 有上亿行,每次更新权重都对一个上一行的矩阵求伪逆 是不现实的!

    增量学习的核心就是,利用上一次的计算结果,和新加入的数据,只需少量计算就能得进而得到更新的权重。
    在这里插入图片描述
    例如:当我们发现初始设计的模型拟合能力不够,需要增加增强节点数量来减小损失函数。这时,我们给矩阵 A 增加一列 a,表示新增的增强节点,得到[A|a],这时要计算新的权值矩阵,就需要求 [Aa]1[A|a]^{-1},于是问题就转化成分块矩阵的广义逆问题,得到了[Aa]1[A|a]^{-1},则更新的权重为 Wnew=[Aa]1YW_{new} = [A|a]^{-1}Y,具体解形式如下,可以看到,Wn+1W_{n+1}中用到了更新之前的权值矩阵WnW_{n},因而有效地减少了更新权重的计算量。
    在这里插入图片描述
    第一次计算权值是用的是 岭回归 算法,因为有迭代过程,可能计算时间稍长。但是第二次、三次……计算时都只涉及矩阵的乘法,所以权值矩阵的更新是非常迅速。相比深度学习的反复训练,时常陷入局部最优无法自拔,宽度学习的优势非常明显。

    在这里插入图片描述

    展开全文
  • 宽度学习详解(Broad Learning System)

    万次阅读 多人点赞 2019-09-01 22:27:28
    宽度学习(Broad Learning System) 我也是最近才知道除了深度学习,还有一个神经网络叫宽度学习(下文统称BLS)。 宽度学习是澳门大学科技学院院长陈俊龙和其学生于2018年1月发表的文章提出的,文章名为《Broad ...

    宽度学习(Broad Learning System)

    我也是最近才知道除了深度学习,还有一个神经网络叫宽度学习(下文统称BLS)。

    介绍一下

    宽度学习是澳门大学科技学院院长陈俊龙和其学生于2018年1月发表的文章提出的,文章名为《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture》

    据论文所述:深度学习由于计算量太大,计算成本太高,所以提出了一种新的网络结构来解决这个问题。

    接下来,我会尽量用最简单的语言来详细介绍这个网络:
    你需要提前知道的:BLS的网络结构不是固定的,而是随着学习不断改变的。不要用之前普通深度学习的思路来理解它。

    1:级联相关网络(本节来自周志华《机器学习》)

    在这里插入图片描述
    上图中红色部分为级联相关网络的一个基本结构,级联相关网络使深度学习的一种方法,所以,他还是再不断地往深了走,以求找到最佳的深度网络。
    再看宽度学习的基本结构:
    在这里插入图片描述
    这是随机向量函数连接网络(RVFLNN)的结构,也是宽度学习的基础。你可以看到他与级联相关网络的相似之处。一个是往深了走,一个是往宽了走(当然,RVFLNN不是自动横向添加神经元,后面的宽度学习系统才是不断横向添加神经元)

    2.随机向量函数连接网络(RVFLNN)

    现在,我们来介绍一下RVFLNN,这是宽度学习的基础。
    BLS是来源于一个叫随机向量函数连接网络 random vector functional-link neural network (RVFLNN)的网络结构。文章给出了图片:
    在这里插入图片描述
    它是这样的:

    给定输入X,普通的网络会把X乘上权重,加上偏差之后传入到下一个隐藏层,但是,RVFLNN不只这样,它乘上一组随机的权重,加上随机的偏差之后传入到一个叫增强层(enhance layer),注意,这组权重在以后不会变了。传入增强层的数据经激活函数(也只有增强层有激活函数)得到H。
    之后,把原本的输入X和增强层的计算结果H合并成一个矩阵(这两个矩阵都是*x1的类型),称为A,A=[X|H],把A作为输入,乘上权重,加上偏差之后传到输出层。

    把上面的图片中增强层挪到输入层就成这样了。
    在这里插入图片描述
    第二次计算的权重和偏差才是我们需要计算的结果。那么怎么计算呢??
    我们想要让
    AW = Y

    A是已知的,Y也是已知的。所以W=A-1Y不就计算出来了吗。
    但是矩阵A是一个*x1的矩阵,是没有逆矩阵的,但是,没有逆矩阵,还有伪逆。这下,想要的都有了。

    假设训练集为500个样本,label有3种类型。按照普通的神经网络,我们会一个一个将样本传入神经网络,用梯度下降来更新权重。但是对于RVFLNN来说,我们一次性将所有样本传入网络。没有权重更新过程,而是一步直接计算出权重。

    下面来举个例子

    假设训练集有500个样本,属性有4个,label有3种。那么我们的输入X就是500x4的矩阵。我们设定需要的增强节点为300个,那么输入就是500x304,而我们想要的权重则是304x3的矩阵。如此,输入矩阵与输出矩阵相乘,得到的就是500x3的矩阵。按照上面的理论,我们只需要计算一次伪逆就行了。

    3.宽度学习系统(Broad Learning System)

    BLS在RVFLNN的基础上再一次改进,尤其是增加了增量学习的过程。增量学习就是前文提过的自动横向增加增强节点或者mapping nodes的过程。

    3.1不含增量学习的BLS

    不含增量学习的BLS与RVFLNN极为相似。
    此时的BLS不再将原始数据直接输入到网络中,而是先经过一番处理,得到mapping nodes。之后,mapping nodes的输入数据就是之前RVFLNN的输入数据。
    mapping nodes不是只有一组。它可以有很多组,每一组叫一个mapping feature。同样,enhancement nodes也不是只有一组,也可以有很多组。
    如图:
    在这里插入图片描述
    这样的网络结构是你提前设定的,有几组mapping nodes,几组enhancement nodes都是你规定好了的。
    再举个例子:

    假设训练集有500个样本,属性有4个,label有3种。我们想要10组mapping feature,10组enhancement nodes。每组我们都想要100个节点。

    这样mapping nodes就有1000个,enhancement nodes也有1000个。那么我们原始的输入X仍然是500x4的矩阵。但是,我们要先把它变成10个500x100的矩阵。所以我们需要10个4x100的权重矩阵,这个权重我们是随机设定的。

    当我们得到10组500x100的mapping nodes的输入Z之后,我们还要得到enhancement nodes的输入H。为此,还需要10组100x100的另一个随机权重(这个权重一般还设置成正交的,可能是为了防止enhancement nodes输入彼此之间的相关性)。之后,我们的输入就是A=[Z|H],shape为500x2000。这两个随即权重都不再改变。输入到输出权重W的shape为2000x3,同样由求伪逆即可得到。

    3.2增量学习

    但是有时我们设定的网络对训练集不能很好的拟合,所以我们就需要增量学习。不断地增加节点,来得到更好的网络结构。
    在这里插入图片描述
    当我们按照不含增量学习的网络训练结束之后,发现效果不够理想,我们就增加其中一种或者两种节点。这样节点增加了,权重也增加了,模型变得更加复杂,效果就可能更好。
    增加节点之后,我们需要更新权重。但是,如果要重新求逆就得不偿失了,因为新的A矩阵只是在原矩阵上追加了一部分,大部分还是没变的。所以,作者使用广义的逆矩阵。用下面的公式来更新权重:
    在这里插入图片描述
    这样的话,每次计算就可以在上一次权重的基础上进行了。

    因为我们增加节点可以增加mapping nodes,也可以增加enhancement nodes,所以有两种方法。法:
    在这里插入图片描述
    在这里插入图片描述
    两种方法都使用了一个while 循环,当误差一直不满足设定值时,就会一直增加节点。

    4.感想

    在实际应用中,我们的样本可能有上百万个,特征也可能成千上万,这时,计算一个矩阵的逆简直是不可能的。

    但是,bls论文中提出一种办法来解决。当我们第一次计算不含增量的伪逆时,使用的是岭回归,这样就避免了直接计算一个巨大的矩阵的伪逆。之后,我们更新权重只使用广义逆计算。和最初的伪逆计算的计算量相比,要少得多。


    bls实现代码:
    我的github
    (目前只有不含增量学习的bls),主要参考的(有含增量学习的代码)github我在他的基础上删除了一些冗余的部分,添加了更多的注释。

    MNIST结果:

    测试集上准确率0.93464(未调参)
    用bls做MNIST的程序我已经放在Github
    上了。

    在这里插入图片描述

    直接求训练集X的伪逆,进而求得W🎂

    在不含增量学习的bls中,通过对训练集的X乘上一系列随机的权重,得到的结果再乘上一系列随机的权重。最后组合在一块,求其伪逆,和y相乘得到权重W。那么,如果我们不乘那么多随机权重呢。而是直接用原始数据集X求伪逆,再求W呢?

    import numpy as np
    import pandas as pd
    from sklearn import preprocessing  # 用来转化为独热编码
    from sklearn.model_selection import train_test_split
    
    class scaler:
        def __init__(self):
            self._mean = 0
            self._std = 0
    
        def fit_transform(self,traindata):
            self._mean = traindata.mean(axis = 0)
            self._std = traindata.std(axis = 0)
            return (traindata-self._mean)/(self._std+0.001)
    
        def transform(self,testdata):
            return (testdata-self._mean)/(self._std+0.001)
    
    
    class net(object):
        def __init__(self):
            self.W = None
            self.normalscaler = scaler()
            self.onehotencoder = preprocessing.OneHotEncoder(sparse = False)
    
        def decode(self,Y_onehot):
            Y = []
            for i in range(Y_onehot.shape[0]):
                lis = np.ravel(Y_onehot[i,:]).tolist()
                Y.append(lis.index(max(lis)))
            return np.array(Y)
    
        def fit(self, X, y):
            X = self.normalscaler.fit_transform(X)
            y = self.onehotencoder.fit_transform(np.mat(y).T)
            self.W = np.linalg.pinv(X).dot(y)   # 784*10
            print('shape of W is:{}'.format(self.W.shape))
    
        def predict(self, X_test):
            X_test = self.normalscaler.transform(X_test)
            y = X_test.dot(self.W)
            print('predictions of y shape:{}'.format(y.shape))
            return self.decode(y)
    if __name__ == '__main__':
    
        # load the data
        train_data = pd.read_csv('./train.csv')
        test_data = pd.read_csv('./test.csv')
        samples_data = pd.read_csv('./sample_submission.csv')
    
        label = train_data['label'].values
        data = train_data.drop('label', axis=1)
        data = data.values
        print(data.shape, max(label) + 1)
    
        traindata,valdata,trainlabel,vallabel = train_test_split(data,label,test_size=0.2,random_state = 0)
        print(traindata.shape,trainlabel.shape,valdata.shape,vallabel.shape)
    
        n = net()
        n.fit(traindata, trainlabel)
    
        test_data = test_data.values
        predicts = n.predict(test_data)
    
        # save as csv file
        samples = samples_data['ImageId']
        result = {'ImageId':samples,
                  'Label': predicts }
        result = pd.DataFrame(result)
    
        result.to_csv('./mnist_simple.csv', index=False)
    

    最终的准确率:
    在这里插入图片描述
    已经0.85+了,😀,不含增量学习的bls相比之下提高了0.08的准确率。
    这其实也差不多说明不含增量学习的bls其实并非十分高级,增量学习才是bls的核心。

    展开全文
  • 人工智能里的 宽度学习,该代码为matlab版本,有空可以比较深度学习
  • Motivation 深度学习: 1,时间长:...宽度学习: 1,消除了训练过程长的缺点,并且提供了很好的泛化能力。 2,如果网络需要扩展,宽度学习网络可以快速重构,无需重新训练过程。 Preliminaries 1,RVFLNN ...

    Motivation

    深度学习: 1,时间长:由于涉及到大量的超参数和复杂的结构,大多数神经网络的训练过程非常耗时。

                       2,重新训练:如果要更改神经网络的结构,或者增加样本,深度学习系统将遇到一个完整的重新训练过程。

    宽度学习: 1,消除了训练过程长的缺点,并且提供了很好的泛化能力。

                       2,如果网络需要扩展,宽度学习网络可以快速重构,无需重新训练过程。

    Preliminaries

    1,RVFLNN

                                               

    • 给定输入X,它乘上一组随机的权重,加上随机的偏差之后传入到增强层得到H,并且这组权重在以后不会变了。
    • 输入X和增强层的计算结果H合并成一个矩阵,称为A,A=[X|H],把A作为输入,乘上权重,加上偏差之后传到输出层。
    • AW = Y,W=A-1Y,A不是一个方阵,所以是没有逆矩阵的,但是,没有逆矩阵,我们可以求A的伪逆。伪逆矩阵具有逆矩阵的部分特性,但并不完全等同。

    2,伪逆和岭回归学习算法

    在实际应用中,我们的样本可能有上百万个,特征也可能成千上万,这时,计算一个矩阵的逆简直是不可能的。当我们计算伪逆时,使用的是岭回归,

    这样就避免了直接计算一个巨大的矩阵的伪逆。

                                      

    FrameWork

    不含增量学习的BLS

    1,结构

                          

    • 输入数据 X 先进行处理(特征提取),把输入数据映射为n个映射节点, 记作Z1... Zn.

                               

    • 把 Z1... Zn 乘上一组随机权重W再加上bias,激活函数处理后作为增强节点,记作H1... Hm.

                                      

    • 最后把 Z1... Zn 与 H1... Hm 合并,记作 A = [Z|H],输出 Y=AW.

    2,两种增强节点建立方法

    结论:假设m和q是第一种方法的增强节点组数和每组的节点数,n和γ是第二种方法的增强节点组数和每组的节点数。如果mq = nγ,

              并且H(a)和H(b)归一化,那么这两个网络是完全等效的。

    包含增量学习的BLS

    1,Enhancement node的增加

                     

               

                 

    2,Feature node的增加

                

                 

    3,Input Data的增加

           

                 

    4,SVD对A进行降秩简化

               

    Experiment

    • 数据集:MNIST,NORM Data
    • 评价指标:Accuracy

     

     

    展开全文
  • 基于级联宽度学习的疲劳驾驶检测.pdf
  • 局部感受野的宽度学习算法及其应用.pdf
  • 宽度学习是澳门大学教授陈俊龙提出,本人结合其论文整理而来
  • 宽度学习(BLS)网络的研究和应用

    千次阅读 2020-01-23 08:14:42
    宽度学习(BLS)网络的研究和应用  除了上述这几大AI学术研究要点之外,还有宽度学习(BLS)网络也值得重点关注。宽度学习(BLS)自2018年由我们(陈俊龙教授及其团队)首次在学术界提出,便迅速在科研机构(中科院)、...

    宽度学习(BLS)网络的研究和应用

     

      除了上述这几大AI学术研究要点之外,还有宽度学习(BLS)网络也值得重点关注。宽度学习(BLS)自2018年由我们(陈俊龙教授及其团队)首次在学术界提出,便迅速在科研机构(中科院)、国内知名高校及企业展开了较为广泛的研究与应用。

      虽然深度学习网络非常强大,但大多数网络都被极度耗时的训练过程所困扰。首先深度网络的结构复杂并且涉及到大量的超参数。另外,这种复杂性使得在理论上分析深层结构变得极其困难。另一方面,为了在应用中获得更高的精度,深度模型不得不持续地增加网络层数或者调整参数个数。为了克服这些问题, 宽度学习系统提供了一种深度学习网络的替代方法,同时,如果网络需要扩展,模型可以通过增量学习高效重建。

      宽度学习(BLS)在设计思路方面,首先,利用输入数据映射的特征作为网络的「特征节点」;其次,映射的特征被增强为随机生成权重的「增强节点」;最后,所有映射的特征和增强节点直接连接到输出端,对应的输出系数可以通过快递的伪逆得出(或者梯度下降方法)。BLS 最重要的特点在于它的单隐层结构,具有两个重要的优势,一个是「横向扩展」,另一个则为「增量学习」,与深度神经网络不同之处在于,BLS 不采用深度神经网络的结构,而是基于单隐层神经网络构建,可以用「易懂的数学推导来做增量学习」。

      直白来讲, 深度神经网络学习架构是在结构固定以后才开始学习,此后学习期间如果出现不准确情况,就要重新设计网络、再学习一次。而宽度学习则是设计好网络后,当面临学习不准确的情况,可以随时以横向的方式进行增量扩充,即通过增加神经元,以提高准确度。这种增量学习的模式也适用在数据实时的进入已训练成的神经网络模型当中,而不用重新对整个收集的数据再重新训练。

      在安防领域,宽度学习网络的应用主要表现在两个方面:一是 提升人工智能识别的可靠性。比如在人脸识别算法训练过程中,最好的数据当然是高清正脸无遮挡的干净人脸数据,但实际上测试推理过程中,很多的人脸数据并不完美,会出现被遮挡(墨镜、口罩)、模糊、非正脸角度的人脸照片。在做算法训练过程中,我们可以基于宽度学习网络架构,通过将干净人脸图片和缺陷人脸图片融合到一起做训练,甚至可以特意生成一些有缺陷的图片样本,由此来提高算法对缺陷图片的识别准确率,从而提升复杂场景下人脸识别算法的场景适应能力。二是 解决数据标注的问题,在人工智能算法训练过程中,数据的标注也非常重要,如果标注错误,那么不管算法有多精确,训练的结果也不会理想。通过宽度学习网络构建的算法模型,可以很好地解决算法标注错误的问题。

      通过研究团队的大量测试,可以看出宽度学习(BLS)以及它的各种变体和扩展结构具有良好的发展潜力,在实际应用中表现出其快速且高精度的优秀性能。目前宽度学习在很多技术领域都有展开应用,比如时间序列、高光谱分析、脑机信号分析、容错、基因鉴定与疾病检测、步态识别、3D打印以及智能交通等。随着人工智能技术研究的持续深入,宽度学习这种不需要深度结构的高效增量学习系统有望加速助推人工智能的发展。

    展开全文
  • 由于我发现山东大学有个组和澳门大学陈俊龙团队的宽度学习、极限学习等。 目前由于神经网络是黑盒研究、所以很多人利用反卷积和卷积可视化来解释这种微分和积分的编程,由于冗余和稀疏特性使用微积分或者差分求导数...
  • 澳门大学陈俊龙 | 宽度学习系统:一种不需要深度结构的高效增量学习系统 原文 Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture IEEE ...
  • 宽度学习论文集

    2018-11-14 10:57:15
    程俊龙教授团队的研究成果,分享给大家! Broad Learning System_ a new learning paradigm and system without going deep.pdf Broad Learning System_ An Effective and Efficient Incremental Learning System ...
  • 宽度学习系统:一种不需要深度结构的高效增量学习系统 本文是对陈俊龙教授团队“Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture”的...
  • Broad Learning System (BLS,宽度学习系统)是澳门大学的陈俊龙教授在2017年TNNLS上基于随机向量函数链接神经网络(RVFLNN)和单层前馈神经网络(SLFN)提出的一种单层增量式神经网络。这个模型相比于传统的深层网络模型...
  • @media (max-width: 768px) { ...这样当浏览器宽度小于768px时,.container框架的宽度为100%*/ /*在这个区域使用.col-xs选择器*/ .container { } } @media (min-width: 768px) { /*在这个区域使用.col...
  • 本文将综述宽度学习系统(BLS)和它的几种变体形式,以及它们在不同领域的几种具体应用(随时更新......)
  • 点击此处返回总目录 前面在深度学习介绍的最后有留下一个疑问。我们为什么要dee...
  • 写成类,方便调用,有demon,基于python语言 有bls基本模型以及四种增量模型,有问题可以私信博主
  • 陈俊龙教授团队“Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture”的中文综述,原文将在IEEE Transactions on Neural Networks and ...
  • 是什么让他拥有如此多丰厚的底蕴和饱满的热情,在知识积累的深度和宽度上,达到了大多数人难以企及的境界? 和龙波博士的初次对话,就被他的侃侃而谈吸引,旁征博引,妙语连珠,气度不凡,对技术、对管理、对...
  • IGBLS 其中,Nt为属于第t类的样本数目。 其中,yi和yj是i和j降维后的表示。 IPGBLS(不仅包含了拉近,而且包含了推开) 、 其中,Nk(xi)表示xi的k个最近邻的集合... 流形学习的目的 学习之后的附近的点有类似的嵌入。
  • 基于图像识别的自动驾驶车跟踪仿真技术研究 一下为同一路口,不同自动驾驶车辆与手动驾驶车辆的数量与交通承载量的关系与结论: 2:从优化角度浅谈神经网络中的学习与控制(即宽度学习系统,部分介绍来源于兰州大学 ...
  • 为了训练深层的网络,会消耗很多的计算资源,而且,用传统基于梯度下降法进行参数学习,模型会受到超参数的影响,也容易陷入收敛缓慢和局部最优,因此有没有一种模型能够避免开销大这个问题? 作者在这篇论文中首先...
  • Motivation 1,我们为了获得更高的性能,建立了一个新的与典型特征学习相关的单层模型,并且考虑了无监督学习模块。 FrameWork 介绍:先进行标准化,再进行白化,最后进行迭代,学习那个聚类点。 为什么进行白化? ...
  • 来源:AI科技评论摘要:如何赋予机器自主学习的能力,一直是人工智能领域的研究热点。 强化学习与宽度学习如何赋予机器自主学习的能力,一直是人工智能领域的研究热点。在越来越多...
  • css控制图片的最大宽度在某些特定的场合还是比较实用的,例子很多在这里就不多说了,还是看看实现代码吧,或许对你学习css有所帮助
  • 宽度 & 深度学习 特点对比

    千次阅读 2019-07-24 13:07:58
    深度学习 特点对比推荐系统模型介绍实验过程与实验结果实验总结   为了提高神经网络的性能,是应该增加宽度呢?还是应该增加深度呢?增加宽度和增加深度各有什么样的效果呢? 本文对论文《Wide & Deep ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,712
精华内容 3,084
关键字:

宽度学习