精华内容
下载资源
问答
  • 增量学习

    千次阅读 2019-08-31 15:49:11
    增量学习增量学习什么是增量学习增量学习的主流方法Parameter-basedDistillation-based 增量学习 什么是增量学习 学习onlineofflineincrementaldecrementalothers offline:训练时能一次性获取全部的训练数据 on...

    增量学习

    什么是增量学习

    学习
    online
    offline
    incremental
    decremental
    others

    offline:训练时能一次性获取全部的训练数据
    online:训练数据依次到来,根据新的数据更新模型

    incremental:学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识
    分为三类:

    • E-IL (Example-Incremental Learning)
    • C-IL (Class-Incremental Learning)
    • A-IL (Attribute-Incremental Learning)[3]

    特点:
    1)可以从新数据中学习新知识;
    2)以前已经处理过的数据不需要重复处理;
    3)每次只有一个训练观测样本被看到和学习;
    4)学习新知识的同时能保存以前学习到的大部分知识;
    5)—旦学习完成后训练观测样本被丢弃;
    6)学习系统没有关于整个训练样本的先验知识;

    decremental:递减学习,即抛弃“价值最低”的保留的训练样本

    【概念辨别】:数据流算法是一种用于处理告诉持续流数据的在线算法。在数据流算法中,样本按照一定的顺序输入,并且只能处理有限轮(通常只有一轮)。数据流算法只能利用有限的内存,并且处理每个数据项的时间是有限的。[2]
    Generally speaking, a data stream is a sequence of unbounded, real-time data items with a very high rate that can be read only once by an application(one-pass constraint)
    流数据的特点:实时性、易失性、突发性、无序性、无限性

    增量学习的主流方法分类

    Parameter-based

    这种方法对原模型中每个参数的重要性进行度量,在重要参数发生变化时加上更多的补偿。代表的算法有EWC,SI,MAS等。这些算法的主要区别在于如何衡量参数的重要性。但是,在训练过程中,尤其是长序列数据的训练过程中,如何设计一个合理的度量方式来衡量每个参数的重要性是很困难的。[1]

    Distillation-based

    这是一种基于知识蒸馏的实现方法。最早是在learning without forgetting(LwF)中提出的,它使用了交叉熵损失来保留原模型中的知识。Aljundi等人提出了在多个任务上训练多个网络的算法,然后使用一个自编码器来为每个测试样本选择一个网络进行预测。上述算法训练了多个分类器,每个分类器只根据单独的任务来进行评价。

    【1】Learning a Unified Classifier Incrementally via Rebalancing
    【2】A Survey on Concept Drift Adaptation
    【3】Zhou Z H , Chen Z Q . Hybrid decision tree[J]. Knowledge-Based Systems, 2002, 15(8):515-528.

    展开全文
  • 增量学习方法

    万次阅读 多人点赞 2017-02-28 10:09:50
    增量学习方法背景介绍 人工智能的参照样本始终没有离开人类本身。而终身式、增量式的学习能力是人类最重要的能力之一。机器人如果能像人类一样对环境以及任务进行增量的学习,这使得机器人终身学习成为可能。增量...

    增量学习方法

    背景介绍

    人工智能的参照样本始终没有离开人类本身。而终身式、增量式的学习能力是人类最重要的能力之一。机器人如果能像人类一样对环境以及任务进行增量的学习,这使得机器人终身学习成为可能。增量学习思想的重要性体现在2个方面:
    (1)在实际的感知数据中,数据量往往是逐渐增加的,因此,在面临新的数据时,学习方法应能对训练好的系统进行某些改动,以对新数据中蕴涵的知识进行学习;
    (2)对一个训练好的系统进行修改的时间代价通常低于重新训练一个系统所需的代价。
    增量学习思想可以描述为:每当新增数据时,并不需要重建所有的知识库,而是在原有知识库的基础上,仅对由于新增数据所引起的变化进行更新。我们发现,增量学习方法更加符合人的思维原理。增量学习框架有很多,各框架最核心的内容是处理新数据与已存储知识相似性评价方法。因为该方法决定觉察新知识并增加知识库的方式,它影响着知识的增长。新知识的判定机制才是增量学习的核心部件。下面针对几种常见的增量式学习框架进行简单介绍,有自组织增量学习神经网络SOINN、情景记忆马尔可夫决策过程EM-MDP


    方法分类

    1. SOINN

    自组织增量学习神经网络SOINN是一种基于竞争学习的两层神经网络。SOINN的增量性使得它能够发现数据流中出现的新模式并进行学习,同时不影响之前学习的结果。因此SOINN能够作为一种通用的学习算法应用于各类非监督学习问题中。
    SOINN是两层结构(不包括输入层)的竞争性神经网络,它以自组织的方式对输入数据进行在线聚类和拓扑表示,其工作过程如图1所示。

    • 第1层网络接受原始数据的输入,以在线的方式自适应地生成原型神经元来表示输入数据。这些节点和它们之间的连接反映了原始数据的分布情况;

    • 第2层根据第1层网络的结果估计出原始数据的类间距离与类内距离,并以此作为参数,把第1层生成的神经元作为输入再运行一次SOINN算法,以稳定学习结果。

    如图2所示:当输入数据存在多个聚类并存在噪声时,SOINN依然能够生成可靠的神经元节点来表示输入数据中的各个聚类;同时子图的拓扑结构反映了原始数据分布的性。
    SOINN的两层竞争学习示意图
    人造数据集上的效果演示
    动态调整是SOINN实现自组织和增量学习的关键,它使得神经元的权值向量和网络的拓扑结构能够随着输入模式的到来动态地进行调整,以优化对输入数据的表达精度。此外,通过适时增加神经元不仅能够自适应地确定神经元的数量以满足一定的量化误差约束,同时还能在不影响之前学习结果的情况下适应之前没有学习过的输入模式。SOINN分别定义了类内节点插入和类间节点插入操作来达到这两个目的。

    • 类内的节点插入操作主要是为了自适应地减小神经元的量化误差,尽可能准确地近似原始数据的分布.具体的,SOINN 在运行过程中会记录每个神经元的累积量化误差,每学习一段固定的时间之后,找出所有节点中累积量化误差最大的两个节点,然后在它们的中间插入一个新的节点,以插值的方式更新它们的累计量化误差值.考虑到并非每次插入操作都是有必要的,如果不进行一些限制的话,那么随着算法的进行,节点的数量会不断地增加.因此,SOINN 在每次类内的节点插入操作后都会再判断该次插入操作是否显著降低了量化误差:如果没有,则取消本次插入操作。

    • 类间节点插入发生在新输入的数据与之前学习过的数据差异性较大的时候.SOINN 通过为每一个神经元i设置一个相似度阈值(similarity threshold)参数 T i T_i Ti来判断新来的数据样本是否有可能属于一个新的类别:如果该数据点与之前学习得到神经元差异性较大,就在该数据点的位置上生成一个新的节点来代表这个可能的模式.如图3 所示,ξ为新输入的数据点,SOINN 首先找到与其最相似的两个神经元 s 1 s_1 s1 s 2 s_2 s2,如果 d ( s 1 , ξ ) > T ( s 1 ) d(s_1,ξ)>T_(s_1 ) d(s1,ξ)>T(s1)或者 d ( s 2 , ξ ) > T ( s 2 ) d(s_2,ξ)>T_(s_2 ) d(s2,ξ)>T(s2),就认为数据点ξ的差异性较大.其中, d ( ∙ ) d(∙) d()为相似度度量函数(通常为欧氏距离函数).新生成的节点并不意味着最终一定属于一个新的聚类,只是在当前的相似度阈值下,该输入与之前学习到的模式存在较大差异.随着越来越多的输入模式得到学习,相似度阈值和神经元之间的连接也在不断变化。

    可以看出:类间节点插入是SOINN 实现增量学习的关键,节点插入的时机对于最终的结果有较大影响,而每个节点的相似度阈值参数 T T T 又是决定插入操作的关键.如果 T T T值过小,则每个数据都会被认为是一个新的模式而生成一个节点; T T T 值过大,则会导致节点个数过少,此时量化误差增大,而且不能准确反映数据的分布.理想情况下,该参数应大于平均的类内距离同时小于平均的类间距离。SOINN在这个问题上采用了一种自适应的方式不断更新$T_i $ 的值,使得能够适应不断变化的输入模式。假设 N N N为所有节点的集合, N i N_i Ni为节点i的邻居节点集合。如果 N i N_i Ni不为空,即,存在其他节点通过一条边与其相连,就令:
    T i = m a x j ∈ N i ∣ ∣ W i − W j ∣ ∣ T_i=max_{j \in N_i}||W_i-W_j|| Ti=maxjNiWiWj
    否则, T i = m i n j ∈ N ∖ i ∣ ∣ W i − W j ∣ ∣ T_i=min_{j \in N \setminus {i}}||W_i-W_j|| Ti=minjNiWiWj。可以看出,这两个定义实际上是当前对最大类内距离和最小类间距离的估计值。实际应用表明,这样的动态调整方法是行之有效的。


    2. EM-MDP

    情景记忆马尔可夫决策过程EM-MDP准确来说是一套完整的人工智能方案(简化版),这个框架中包括对情景的认知、增量学习、短期与长期记忆模型。我们将焦点放在框架中的增量学习部分。该框架基于自适应共振理论(ART)与稀疏分布记忆(SDM)的思想实现对情景记忆序列的增量式学习。SDM是计算机科学家彭蒂.卡内尔瓦于1974年提出的能够将思维所拥有的任何感知存入有限记忆机制的方法。这样,在学习过程中,每次可有多个状态神经元同时被告激活,每个神经元均可看成一类相近感知的代表。相比SOINN网络每次最多只能有一个输出节点,该方法具有环境适应性好的优点。
    情景记忆网络学习模型的构建基于EM-MDP模型框架,由感知输入(O层)、感知相似性度量(U层)、状态神经元(S层)和输出情景记忆(E层)组成,其结构模型如图3所示。框架中U层与S层都具有增量式学习的能力,U层与S层的结构如图4所示。U层节点个数等于输入感知的维数,每个节点的输出由3个信号共同确定:(1)当前环境的感知输入 o c o_c oc;(2)控制信号 C 1 C1 C1;(3)由S层反馈的获胜状态神经元的映射感知。
    3 情景网终学习结构模型
    图3
    U层节点的输出u根层这3个信号采用“多数表决2/3”原则计算获得。当 C 1 = 1 C1=1 C1=1,反馈映射感知信号为0时,U层节点输出由输入感知决定,即 u = o c u=o_c u=oc。当反馈映射感知信号不为0, C 1 = 0 C1=0 C1=0时,U层节点输出取决于输入感知与反馈映射感知的比较情况,如果相似性度量大于阈值,则对感知向量学习进行调整,否则增加新的感知 o m + 1 = o c o_{m+1}=o_c om+1=oc。S层有m个节点,用以表示m个状态神经元,该状态神经元空间可通过增加新的神经元节点进行动态增长。状态神经元间具有权值,代表情景记忆的连接关系。
    网络U层与S层的结构。左:U层;右:S层。
    图4
    情景网络接受来自环境的感知输入,通过检查当前感知输入与所有存储感知向量之间的匹配程度,确定新感知及其相关事件是否已存在机器人的情景记忆当中。按照预先设定的激活阈值来考察相似性度量,决定对新输入的感知采取何种处理方式。在网络每一次接受新的感知输入时,都需要经过一次匹配过程。相似性度量存在两种情况:

    • 相似度超过设定阈值,则选择该邻近状态集为当前输入感知的代表状态神经元集合。感知通过学习进行调整以使其之后遇到与当前输入感知接近的感知时能获得更大的相似度,对非该邻近状态集,感知向量不做任何调整。实际上是对情景记忆中的映射感知进行重新编码,以稳定已经被学习了的熟悉事件。

    • 相似度不超过设定阈值,需要在S层新增一个代表新输入感知的状态神经元并存储当前感知为该新增状态的映射感知,以便参加之后的匹配过程。同时建立与该状态神经元相连的权值,以存储该类感知和参与以后的匹配过程。实际上是对不熟悉事件建立新的表达编码。

    总结

    通过查阅相关文献,SOINN被应用的相对较多。有用来对环境进行增量式构建路图,也有以处理过的视觉信息作为特征输入进行认知地图构建的。而EM-MDP结还未对其中增量式学习部分进行有效的框架分离,所以结构相对作为单独框架提出来的SOINN不是很清晰。增量式学习的核心部件是对新旧知识的处理上,而将一个输判定是否为新知识,则需要度量新输入与旧知识之间的“距离”。对知识网络中的噪声进行过滤处理也是维护一个有效知识网络的必不可少的部分。**最后值得注意的是,SOINN的评判阈值是自动动态调整的,而EM-MDP中的阈值是预先设定的一个定值。**当然,有效地自动调整参数是大家都喜闻乐见的。


    END

    展开全文
  • 增量学习与在线学习

    2021-03-05 10:50:39
    1. 增量学习

    0. 机器学习

    0.1 机器学习工作流的9个阶段

    (1)模型需求

    (2)数据收集

    (3)数据清洗

    (4)数据标注

    (5)特征工程

    (6)模型训练

    (7)模型评估

    (8)模型部署

    (9)模型监控

    1. 增量学习

    学得模型后,再接收到训练样例时,仅需根据新样例对模型进行更新,不必重新训练整个模型,并且之前学得的有效信息不会被冲掉。

    2. 在线学习

    每获得一个新样本就进行一次模型更新。

    显然,在线学习时增量学习的特例,而增量学习可视为“批模式”的在线学习。

    3. 迁移学习

    11

     

     

     

    展开全文
  • 增量学习&迁移学习

    2019-12-26 15:56:07
    增量学习 增量学习(Incremental Learning)是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。 增量学习非常类似于人类自身的学习模式。因为人在成长过程中,每天学习和接收...

    增量学习  

           增量学习(Incremental Learning)是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。

          增量学习非常类似于人类自身的学习模式。因为人在成长过程中,每天学习和接收新的事物,学习是逐步进行的,而且,对已经学习到的知识,人类一般是不会遗忘的。

        增量学习主要表现在两个方面:一方面由于其无需保存历史数据,从而减少存储空间的占用;另一方面增量学习在当前的样本训练中充分利用了历史的训练结果,从而显著地减少了后续训练的时间。

     

        增量学习主要有两方面的应用:

               一是用于数据库非常大的情形,例如Web日志记录;

               二是用于流数据,因为这些数据随着时间在不断的变化,例如股票交易数据.

         另外在增量学习中,现有的增量学习算法大多采用决策树和神经网络算法实现的,它们在不同程度上具有以下两方面的缺点:一方面由于缺乏对整个样本集期望风险的控制,算法易于对训练数据产生过量匹配;另一方面,由于缺乏对训练数据有选择的遗忘淘汰机制,在很大程度上影响了分类精度。

    迁移学习

           迁移学习是指用已存有的知识对不同但相关领域问题进行求解的一种机器学习方法

           迁移学习对人类来说很常见,例如,我们可能会发现学习识别苹果可能有助于识别梨,或者学习弹奏电子琴可能有助于学习钢琴。

     

     

    展开全文
  • 迁移学习与增量学习

    2019-08-21 16:41:58
    日常处理数据过程中,我们会遇到新数据的增加这个问题,我们既想增加新数据,又想利用原先的模型,迁移学习和增量学习就应运而生了,而且在今后的发展中,此类问题会越来越频发。 首先推荐几篇博客来探讨一下这个...
  • 增量学习论文

    2012-11-30 11:17:43
    最新的增量学习算法 是一篇很好的论文 来源于软件学报 希望对你有帮助
  • 浅谈迁移学习,增量学习

    千次阅读 2018-12-04 12:11:28
    文章目录迁移学习迁移学习与 domain adaptation 域适应迁移学习与 finetune 微调增量学习增量学习与迁移学习 最近在看一些增量学习的论文,在学习的过程中不免会遇到增量学习与迁移学习的相关概念的联系和区别,下面...
  • 作者丨Maple小七@知乎(已授权)来源丨https://zhuanlan.zhihu.com/p/301117945编辑丨极市平台1. 增量学习的概念1.1 什么是增量学习人类有终身不断...
  • 增量学习笔记

    2020-09-24 14:45:43
    增量学习 增量学习是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分已经学习到的知识。其非常类似于人类自身的学习模式,设想一下,当我们学会了 0-9 识别与书写,再学习 A-Z 字母表的识别与书写后...
  • 机器学习:增量学习

    2020-10-21 10:32:49
    机器学习-增量学习 https://blog.csdn.net/suzyu12345/article/details/81461667
  • 增量学习驱动的合作演变
  • 增量学习实例

    千次阅读 2020-01-14 11:10:24
    增量学习有几点需要注意: 1.不是所有模型都支持增量学习,参考:https://scikit-learn.org/stable/auto_examples/applications/plot_out_of_core_classification.html 2. fit 与 partial_fit函数的区别需要注意:...
  • 为此,提出一种新的SVM快速增量学习算法.该算法首先选择那些可能成为支持向量的边界向量,以减少参与训练的样本数目;然后进行增量学习.学习算法是一个迭代过程,无需求解优化问题.实验证明,该算法不仅能保证学习机器的...
  • ILAPF:增量学习辅助粒子过滤
  • 一种快速 SVR 增量学习算法
  • 增量学习的定义

    2019-10-28 09:48:15
    增量学习 定义: 增量学习(Incremental Learning)是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。增量学习非常类似于人类自身的学习模式。 增量学习作为机器学习的一种...
  • (接上文) 增量学习的过程,就是读取磁盘上原有的训练结果,并在此基础上继续训练。 这里用到的是 tensorFlow的saver,用于存取训练结果。 整个代码与前文的首次训练很像,只是把init()换为读取
  • 在实验的最后,分别从主观判断和客观检测数据两个方面,对比了车辆目标检测中未使用增量学习方法和使用增量学习方法对实验结果的影响.实验证明,使用基于增量学习和Faster R-CNN的车辆目标检测方法在主观判断方面对...
  • 为获得快速、准确而精简的模糊神经网络,提出一种连续增量学习模糊神经网络(ISL-FNN).将修剪策略引入到神经元的产生过程,用错误下降率定义输入数据对系统输出的影响并应用于神经元的增长过程.在参数的学习阶段,所有...
  • 针对实际应用中数据的批量到达, 以及系统的存储压力和学习效率低等问题, 提出一种基于信念修正思想的SVR 增量学习算法. 首先从历史样本信息中提取信念集, 根据信念集和新增数据的特点选择相应的信念集建立支持向量...
  • FSCIL 小样本类增量学习

    千次阅读 2021-03-12 10:55:40
    小样本增量学习
  • 优化模型:不想耗时的重头训练,或只想针对别的模型做的差的再挑出来学习一遍(典型的基于SVM的增量学习,先挑出SVM学不好的边界点,再次学习提升) 现实需求:用户增加、用户删减,不适合数百、数万的用户都重来一...
  • 最近因为项目原因,研究使用增量学习增量学习(incremental learning)是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识,增量学习非常类似于人类自身的学习模式。因为人在...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 92,543
精华内容 37,017
关键字:

增量学习