精华内容
下载资源
问答
  • 多核学习、多视图学习任务学习和集成学习的区别和联系
    2020-07-12 21:51:44

           多核学习既可以用在多任务学习,也可以用在多视图学习,也有研究同时对多任务和多视图同时采用多核的,目前已经有通用多任务多核学习方法。如果将多核用在多任务学习,相当于不同任务共享子空间的同时,还有各自特有的一个空间,这个特有空间通过采用不同的核来表示。多任务中采用多核,由此强调任务个性。如果将多核用在多视图学习,不同视图的数据采用不同的核,相当于多源数据融合的一种方法,这些也早有研究。而无论是多任务,多视图还是多核,都是希望充分利用不同来源的数据,去提高模型的整体效果,知识在不同任务和视图之间互通有无,实现不同任务不同视图的知识迁移。

           而集成学习对数据的利用则更弱一些。某种程度上说,多任务和多视图,乃至多核,都是在模型设计阶段就考虑了数据融合的问题。而集成学习仅仅是在训练好分类器之后才做集成。集成学习用到的基学习器模型之间并没有知识的互通。所以多任务和多视图学习,更能有效利用不同来源的数据提高学习效果。若集成学习的基学习器本身能力不足,即使集成也不容易得到更好的效果。目前也有一些同时采用多任务和集成学习的方法。

    更多相关内容
  • 数据融合matlab代码多视图学习 arXiv 视图问题的半监督深度表示学习 瓦希德·诺鲁兹(Vahid Noroozi),萨拉·巴哈迪尼(Sara Bahaadini),雷铮,谢思宏,邵伟祥,余飞飞, IEEE大数据,arXiv CCA 通过模态生成...
  • 今天给大家带来,深度学习多视图学习.pptx,面对于相关知识讲解的十分清楚明白,相关方向的同学不要错过,一起来学习吧!
  • 在过去的几十年中,多视图学习在网页分析,生物信息学,图像处理等众多现实世界中引起了广泛的兴趣。 与遵循协同训练思想的最新作品不同,在本文中,我们提出了一种通过概率潜在语义分析进行多视图学习的新生成模型...
  • 异构任务的任务多视图学习
  • 不完整视图的多视图学习
  • 本文提出一种基于生成对抗网络的多视图学习与重构算法,利用已知单一视图,通过生成式方法构建起他视图。为构建视图通用的表征,提出新型表征学习算法,使得同一实例的任意视图都能映射至相同的表征向量,并保证其...
  • 矩阵完成中的低秩多视图学习,用于标签图像分类
  • 多视图学习

    千次阅读 2017-09-03 20:56:37
    多视图学习典型方法 典型相关性分析(CCA) 从整体上把握两组指标之间的相关关系,分别在两组变量中提取有代表性的两个综合变量u和v(分别为两个变量组合中各变量的线性组合),利用这两个综合变量之间的相关关系来...

    多视图学习典型方法

    1. 典型相关性分析(CCA)
      从整体上把握两组指标之间的相关关系,分别在两组变量中提取有代表性的两个综合变量u和v(分别为两个变量组合中各变量的线性组合),利用这两个综合变量之间的相关关系来反映两组指标之间的整体相关性。
    2. 协同训练(co-training)
      为验证协同训练的有效性,给出一个PAC分析。PAC 分析是在两个假设条件下进行的:
      (1)每个视图都足以进行正确的分类(也就是说,在每个样本上,组合视图都有标签一致性)
      (2)任何样本的两个视图对于给定的类别标签都是条件独立的,初始的弱分类器保持了 PAC 的可学习性。

    如何利用多视图

    1. 多视图数据降维
      1. 主成分分析(PCA)——无监督
        PCA的降维的核心就在于将原始n维数据投影到k个单位标准正交基上,为了保证投影后的数据包含足够的信息,PCA要求投影后每一维特征的方差足够大,因为方差越大,投影到低维后重叠越少。同时,PCA也要求特征之间互相独立,这样可以保证不同特征间含有更少的重复信息。
      2. Fisher线性判别分析——监督
        Fisher线性判别的核心是将原始数据投影到一维空间中,使得原本线性不可分的数据变得线性可分(类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别)。
        Fisher线性判别的关键在于最大化一个准则函数J,准则函数J是由类间散度比上类内散度得到的。最大化准则函数J是要求类内散度足够小而类间散度足够大。小的类内散度保证了当前类中的数据足够紧密。大的类间散度保证了这两个类有足够的可分性。
    2. 多视图半监督学习
      1. 协同训练
    3. 多视图监督学习
      1. Fisher线性判别分析
    4. 多视图主动学习
      1. 多视图Adaboost
    5. 多视图集成学习
    6. 多视图迁移学习
    7. 多视图聚类

    A survey of multi-view machine learning

    展开全文
  • Universum的多视图学习

    2021-04-23 09:42:46
    Universum的多视图学习
  • DeepMVS:学习多视图立体视觉。 (,) 使用深度卷积神经网络的多视图人脸检测。 (,,,) 用于3D形状识别的多视图卷积神经网络。 (,) 使用图正则化NMF的部分多视图聚类。 (,) 《计算机视觉中的多视图几何》...
  • 基于非并行支持向量机的多视图学习
  • 基于响应面技术的正则化多视图学习
  • 多视图学习算法和应用研究 多视图学习算法和应用研究 如何选择视图、确定对应系数以及构建更加鲁棒 的多视图学习和聚类算法

    多视图学习算法和应用研究

    一、摘要

    本文的研究内容为如何选择视图、确定对应系数以及构建更加鲁棒的多视图学习和聚类算法,主要工作及创新点概括如下:

    1. 提出一种面向三维图形学的多视图分类模型。即:一种新的多视图三维图形特征抽取方法,称为卷积自动编码极限学习机 (CAE-ELM),它结合了卷积神经网络(CNN)、自动编码机(AutoEncoder)和极限学习机(Extreme Learning Machine,ELM)的特点,具有训练速度快、旋转不变性等多种特点,并能够同时抽取三维图形的两种不同视图,通过两种视图的结合,更好的分类。
    2. 提出一种面向多视图的全局 -局部核对齐算法。采用混合核对齐的方式,设计对应的交替优化算法,活得更好的分类效果。
    3. 提出一种基于重构核的多视图聚类框架。为解决样本中含有噪声视图的聚类问题并减小已有多视图聚类算法对视图质量的依赖性,提出该方法去自适应地提升每个视图的质量。首先基于各个视图的聚类结果自动地发现样本的异常视图,然后设计一种新的交替优化算法迭代地优化这些样本所对应的缺失视图值。最后,该框架将聚类结果与改进视图质量有机地结合起来,进一步提升了聚类的性能。
    4. 提出一种基于深度神经网络的大规模多核聚类近似算法。近似算法首先抽取大规模数据集的部分样本,形成一个子集,并对该子集使用 MKKM,得到子集对应的指示矩阵;后使用子集中的样本和对应的指示向量作为数据和标签训练一个深度神经网络,训练完成后固定该网络。

    二、绪论

    (1)多视图有监督学习算法 [27–34],大多数基于支持向量机[35],SVM-2K [36] 是一种典型的多视图有监督学习算法,它通过约束来自两个不同 SVM 的特征投影的相似性来结合两个视图。文献 [37] 提出了一种新的方法,称为多视图双胞支持向量机(MvTSVMs)。
    (2)多视图无监督学习算法(MVC)[7,34,39-41]。常见的无监督学习方法包括 k-means 聚类 [42]、谱聚类 [43] 及核 k-means 聚类 [44]。关键要素是如何计算样本间的相似度,其依赖于数据特征。
    (3)多视图度量学习 [86–90]。文献 [89] 结合人脸图片提取的 Gabor 特征、HOG 特征和局部纹理特征(LBP)等多种特征表示,设计新的多视图距离度量方式,将多视图度量学
    习运用到人脸疼痛强度检测中。
    (4)文献 [81] 提出一种新的多视图谱嵌入算法(multi-view spectral embedding,MSE),它通过将多视图特征编码从而实现更有意义的嵌入。
    (5)文献 [85] 提出一种低秩的嵌入式多视图算法,考虑了视图的差异性。
    (6)献 [41] 提出一种基于多样化诱导正则化项的多子空间学习聚类算法。该算法将文献 [91] 中的平滑表示引入到多子空间学习算法中。
    (7)多核学习算法被广泛研究 [33, 94–100]。基于核的学习算法通过将样本映射到可再生希尔伯特空间中,考虑了样本之间非线性相似性。1.稀疏或非稀疏的多核学习算法 [30, 101–104, 104, 105];2. 单步、两步多核学习算法 [106–109];3.集成半径多核学习算法 [110–114];4. 多核聚类算法 [4, 46, 56, 115–118];5.如何提高多核学习算法的计算效率 [28, 94, 101, 119–124]。
    (8)非稀疏多核学习算法研究提出将稀疏
    算法中的 ℓ1约束换成 ℓp-范数约束 [30, 101, 102],通过这种约束方式可以充分利用基
    核的互补信息,从而达到更好的性能。
    (9)CCF 推荐 C类期刊 Neurocomputing 上 [152]。

    三、研究方法

    研究方法1

    1.文献积累

    (1)很多全自动提取 3D 特征的方法被提出,例如卷积深度信念网(CDBN) [155],自动编码机(Auto-Encoder, AE) [156], 深度玻尔兹曼机(DBM)[157], 极限学习机(ELM),卷积神经网络(CNN) [158], 以及多层卷积自动编码机(Stacked CAE) [159] 等等。
    (2)大多数方法并不直接接收三维图形作为输入,而是将三维图形转为二维图像之后再抽取特征 [22, 159, 160],这类特征抽取方法导致三维几何信息的缺失,从而影响了性能。
    (3)直接接收三维输入 [155, 161],例如使用三维图形的体素化表示作为输入。然而,由于增加了额外的维度,导致这些方法的训练时间和测试时间都特别长。

    2.提出方法

    提出了一种新的三维图形特征抽取方法,叫做卷积自动编码极限学习机 (CAE-ELM)。CAE-ELM 结合了卷积神经网络、自动编码机和极限学习机的特点。是一种典型的无监督学习算法,可以在没有任何指导的情况下提取特征,然而自动编码机的网络是全连接的,因此需要学习很多额外的参数。卷积神经网络限制了层与层之间的连接数目,只有局部连接关系,但其需要大量的卷积运算,计算量巨大。为了减小它的运算量,加入有效且高效的 ELM。因此,CAE-ELM 具备训练速度快、连接数量少等优良特性。

    3.相关工作

    (1)半自动。大量的特征提取算法被提出 [163, 165, 168, 169]。
    (2)深度学习。CAE-ELM 能够同时抽取全局和局部的特征。
    (3)极限学习机。极限学习机(ELM)是一种单隐层前向神经网络(SLFNs) [174–176],隐层节点是随机产生的,而隐层和输出层之间的权值矩阵则具有解析解,能够通过公式直接计算出来。ELM在训练阶段具有两个主要过程:特征映射阶段和输出权值求解阶段。

    4.核心思想

    卷积自动编码极限学习机。CAE-ELM 将卷积 ELM 和自动编码极限学习机集成到同一框架下,于如下两种考虑:第一,卷积网络的局部共享权值机制能够保持三维图形的旋转不变性;第二,通过使用自动编码机能够使模型变得更加高效。因此,CAE-ELM 能够在各种三维图形学应用中高效的提取三维特征。
    多视图 CAE-ELM 结构
    CAE-ELM 能够接受两种不同类型的三维视图作为输入,它同时抽取两种不同表示的特征,最后将两种不同类型的特征组合起来送入 ELM 分类器完成分类任务。
    在这里插入图片描述

    研究方法2—面向多视图的全局 -局部核对齐算法

    1.文献积累

    (1)文献 [189] 中提出核对齐准则。
    (2)多核学习算法按照优化策略可以大体分为两类:单步算法 [101, 125, 185, 186] 和两(多步)算法 [106–108, 187, 188]。单步算法同时学习优化核的系数和分类器的结构参数,而两步算法则首先通过一定的准则学习最优核,之后通过标准核学习算法基于学习好的最优核训练模型。

    2.提出方法

    定义一种新的核对齐方式:全局 -局部混合核对齐。首先定义局部核对齐,即每个样本都只使用其 k 个邻居得到局部核,之后对各个局部核进行对齐。
    在这里插入图片描述

    研究方法3—基于部分重构视图的多视图聚类架构

    1.文献积累

    这 3 个 MKC 算法包括多核k-means 聚类算法 (MKKM) [115],多视图联合谱聚类算法 (CRSC) [56] 和矩阵导出正则化的多核 k-均值聚类 (MKKM-MR) [50]。

    2.提出方法

    该聚类框架首先基于各个基核的聚类结果发现异常值,然后设计一种新的交替优化算法迭代优化异常样本对应的基核。通过这种方式,将聚类结果与基核质量结合起来,进一步提升聚类的性能。
    在这里插入图片描述
    该算法是在基于已有的聚类结果重构异常点优化核矩阵K。其异常点的定义规则是:选取距离聚类中心点较远的样本点作为异常点。所提出的算法框架如图所示:
    在这里插入图片描述
    在这里插入图片描述
    (1)对于异常点的检测
    首先对每个基核做核 k 均值聚类 (KKM),并对每个核都产生初始的聚类标签,之后我们计算每个核空间中,各个样本离聚类中心的距离,并记录一部分离各个聚类中心较远的样本点集合为 Op, 假设这个比例值为 r。
    在这里插入图片描述
    (2)算法改进
    A.基于重构核的 CRSC 算法(CSRC-IK)
    目标函数:
    在这里插入图片描述
    算法流程:
    在这里插入图片描述
    B.基于重构核的 MKKM 算法 (MKKM-IK)
    目标函数:
    在这里插入图片描述
    算法流程:
    在这里插入图片描述改进算法分析:
    IK 中,Q 表示 (I − HH),其中 H 是通过组合核 K 计算得到的。因此,Q 中集成了所有基核的聚类信息,使用 Q 去更新基核,实际是综合考虑所有核在异常位置的 kernel 值来更新某个基核在其异常位置的值。在 CRSC-IK 中,Q 中只包含了第p 个基核的指示矩阵 Hp,而不是组合核的指示矩阵 H,但是在其优化过程中,Hp在优化过程中实际会使用 H,也就是说,Hp在优化过程中会从全局指示矩阵 Hp中获取信息,因此 CRSC-IK 中的 Q 也集成了全部基核的信息。总之,本章提出的框架通过集成所有基核的信息区更新各个基核在其异常位置的 kernel值。值得指出的是,框架下的重构视图算法能够保证单调性和收敛性。

    3.实验结果

    (1)实验数据集
    在这里插入图片描述
    (2)实验结果
    为了验证框架在核缺失情况下的聚类性能,我们首先对所有基核随机产生不
    同比例的缺失。注意此处的缺失比例是有缺失视图的样本比例,而不是每个视图
    中缺失的样本的比例。
    人造数据集 Toydata 上的结果
    在这里插入图片描述
    MKC标准数据集上的结果

    在这里插入图片描述
    图像和视频数据集聚类结果

    CCV 数据集CRSC-IK 的聚类精度为 31.68% 最佳

    Flower17 数据集上的混淆矩阵,图中矩阵的横坐标表示真实类别标号,纵坐标表示预测标签标号,第 i 列表示真实标签为第 i 类的样本分别被预测为各个类别的样本比例,例如第 12 列表示,真实标签为 12 的所有样本被分为第 8 类的比例为 11.25%,被分为第 12 类的比例为 28.75%。由此可见,对角线元素比例越高,说明正确分类的比例越高。
    从图可以看出,MKKM 会混淆第 8 和第 1 类、第 12 和第 13 类。具体而言,MKKM 在真实标签为第 8 和第 12 类时,预测的正确率仅为 13.75% 和8.75%,作为对比,MKKM-IK 则能够将这两类的预测正确率提升到 43.75% 和58.75%,因此 MKKM-IK 更具有区分性。

    在这里插入图片描述在这里插入图片描述

    研究方法4—基于深度神经网络的大规模多核聚类近似算法

    1.算法框架

    在这里插入图片描述

    2.提出方法

    该算法分为两个阶段。第一个阶段,随机选取的子集上训练深度神经网络用于拟合指示矩阵 H。为此,我们需要使用 MKKM 算法得到子集对应的指示矩阵 H,然后将其作为深度神经网络的目标输出。
    在这里插入图片描述
    网络的损失函数如下所示:
    在这里插入图片描述

    3.算法流程

    在这里插入图片描述
    在这里插入图片描述

    四、参考文献

    参考代码

    展开全文
  • 0711 深度多视图学习

    千次阅读 2020-07-11 22:45:55
    In: Proceedings of the international conference on neural information processing Fusion of Networks Split Multiview Autoencoders Representation Fusion 构造具有视图的不同表示形式的结构化空间,这给...

    Deep learning for multi-view data

    1. 2011 Multimodal deep learning
      autoencoder-based (splitAE)
      1/3 video only 1/3 audio only, 1/3 both
      encode共享,分别decode
      在这里插入图片描述
    • Deep Canonical Correlation Analysis(DCCA)
      two DNNs f and g are used to extract nonlinear features for each view and the canonical correlation between the extracted features f(X) and g(Y) is maximized. U’f is the final mappingprojection

    • Deep Canonically Correlated Auto-Encoders
      在这里插入图片描述

    • Variational Canonical Correlation Analysis

    • On Deep Multi-View Representation Learning: Objectives and Optimization
      在这里插入图片描述

    待看:

    • Multiview Deep Learning
      Sun S., Mao L., Dong Z., Wu L. (2019) Multiview Deep Learning. In: Multiview Machine Learning. Springer, Singapore

    通过构建层次结构获得共享的表示。

    • Joint Representation
      • Probabilistic Graphical Models
        Sun S, Liu Q (2018) Multi-view deep gaussian processes. In: Proceedings of the international
        conference on neural information processing
      • Fusion of Networks
        • Split Multiview Autoencoders
        • Representation Fusion

    构造具有多个视图的不同表示形式的结构化空间,这给不同视图上的表示形式之间提供约束。

    • Complementary Structured Space
      • DCCA
      • DCCAE
        • Correlated Autoencoders (Corr-AE)
        • Minimum-Distance Autoencoders (DistAE)
          在这里插入图片描述

    显式地构造不同视图或表示之间的连接或关系,这允许不同视图彼此转换或映射。

    • View Mapping
      • Generative Models
        Deep Conditional Generative Adversarial Networks
        Multiview Attention RNN

    multi-view deep clustering

    自表达

    • 2018 Deep multimodal subspace clustering networks
      CNN-based autoencoder
      Fig3
      在这里插入图片描述

    • Multi-view Deep Subspace Clustering Networks
      auto-encoder
      在这里插入图片描述

    • 2019 Deep Adversarial Multi-view Clustering Network(DAMC)
      AE + GAN
      在这里插入图片描述

    • Multi-view Generative Adversarial Networks
      BiGAN在这里插入图片描述

    • 2017 AAAI Multi-View Clustering via Deep Matrix Factorization
      在这里插入图片描述

    • 2018 IJCAI Deep Multi-View Concept Learning

    • 2020 AAAI Shared Generative Latent Representation Learning for Multi-View Clustering
      在这里插入图片描述


    imbalanced deep learning

    • data-level /re-sampling --deep CNN
      ROS/ augmentation : SMOTE
      RUS : EasyEnsemble
      hybrid
      Dynamic sampling
    1. 从多数类别中删除样本的方法(欠采样,如RUS、NearMiss[11]、ENN[12]、Tomeklink[13]等)
    2. 为少数类别生成新样本的方法(过采样,如SMOTE[14],ADASYN[15],Borderline-SMOTE[16]等)
    3. 结合上述两种方案的混合类方法(过采样+欠采样去噪,如SMOTE+ENN[17]等)
    • cost-sensitive

    • ensemble learning
      SMOTE+Boosting=SMOTEBoost [21];
      SMOTE+Bagging=SMOTEBagging [22];

    • Survey on deep learning with class imbalance
    • Imbalanced deep learning by minority class incremental rectification
    • Learning deep representation for imbalanced classification
    • Justin M. Johnson and Taghi M. Khoshgoftaar.Survey on deep learning with class imbalance.Johnson and Khoshgoftaar J Big Data.(2019) 6:27

    semi-supervised learning

    1. Pre-training
    • 无标签数据初始化网络,有标签数据微调
      • 无监督预训练
      • 伪有监督预训练
    • 有标签数据训练网络, self train
      有标签数据训练一个分类器,然后用这个分类器对无标签数据进行分类,产生伪标签, 把选出来的更可信的无标签样本用来训练分类器
    1. 生成式方法
      基于生成式模型的方法。此类方法假设所有数据(无论是否有标记)都是由同一个潜在的模型“生成”的。这个假设使得我们能通过潜在模型的参数将未标记数据与学习目标联系起来,而未标记数据的标记则可看作模型的缺失参数,通常可基于EM算法进行极大似然估计求解。此类方法的区别主要在于生成式模型的假设,不同的模型假设将产生不同的方法

    2. 基于图的半监督算法
      标签传播
      通过构造图结构来寻找训练数据中有标签数据和无标签数据的关系。标签传播过程,从有标签的数据流向无标签数据.

    3. 基于分歧的方法
      co-training
      不同角度训练出来的分类器对无标签样本进行分类,再选出认为可信的无标签样本加入训练集中。

    展开全文
  • 用于任务多视图学习线性分解机
  • 基于多视图学习的数据增殖器 (MV-LEAP),用于使用由 Olfa Graa 创建的高度不平衡的类来促进分类。 请联系查询。 谢谢。 单击此处显示主图: 介绍 这项工作已发表在 2019 年神经科学方法杂志上。 MV-LEAP 是一个用于...
  • 自适应内核的非线性最大余量多视图学习
  • 受近期进展的推动,本文中我们提出了一种多核多视图相关特征学习方法多视图降维。在我们提出的方法中,每个视图通过以下方式映射到个更高维的特征空间中:隐式非线性映射。面部和手写数字的三个实验认识证明了所提...
  • Multi-view Learning 多视图学习

    千次阅读 2019-08-15 20:33:41
    通俗来讲,多视图就是从个角度去学习,提高数据预测准确性~ 多视图中可以从个源或不同的特征子集获得视图。 These views may be obtained from multiple sources or different feature subsets. 例如,一个人...
  • 多视图学习(multiview learning)

    千次阅读 2016-10-30 21:58:00
    多视图学习(multi-view learning) 前期吹牛:今天这一章我们就是来吹牛的,刚开始老板在和我说什么叫多视图学习的时候,我的脑海中是这么理解的:我们在欣赏妹子福利照片的时候,不能只看45度角的吧,要不那样岂...
  • 多视图学习  数据的采集越来越呈现出多源异构特性,在越来越的实际问题中存在着大量对应着组数据源的样本,即视图数据。 主要算法  1)多视图学习与多核学习之间具有天然的联系,这是因为不同的核函数...
  • 基于多视图深度学习的推荐系统跨域用户建模算法.pdf
  • 针对高光谱遥感影像监督分类训练样本少,训练分类器迭代速度慢的问题,提出一种联合空谱特征的多视图主动学习算法。首先,将原始影像的光谱波段分割为个互不相交的子集合;然后,在每个子集合滤波提取空间结构特征,建立...
  • 学习视图

    2020-12-14 15:29:22
    视图,是一个虚拟表,通过查询语句,从一个表或者个表中查询得到的一个结果,可以作为一个视图使用,使用的效果和真实表一致。可以在视图中使用update,delete,insert操作,可以提供数据库的安全性,同时便于用户...
  • 多视图多行为对比学习推荐系统

    千次阅读 2022-03-24 00:46:39
    嘿,记得给“机器学习与推荐算法”添加星标作者:吴贻清单位:中科院计算所研究方向:行为推荐行为推荐(MBR)旨在联合考虑多种行为以提高目标行为的推荐效果。我们认为 MBR 模型应该:(1)对用户不同行为之间...
  • 多视图聚类学习

    2021-03-14 06:18:55
    多视图聚类学习
  • 基于注意力的多视图网络表示学习协作框架
  • 多视图模态之争

    千次阅读 2020-06-28 09:52:23
    本周6看了CCF-AI走进高校系列报告,在看天津大学张长青副教授做多视图学习报告时。在提问环节,其中有一个有意思的问题。视图与模态有什么区别?传统的机器学习一般而言基于单视图建模分析,也有学者称多视图为...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 341,321
精华内容 136,528
关键字:

多视图学习

友情链接: 蚁群算法.zip