精华内容
下载资源
问答
  • 区分稀疏局部保留投影的人脸识别
  • 模式识别和机器学习在图像中的应用是图像处理和计算机视觉研究... 已实现图形用户界面 (GUI) 以显示局部保留投影的各个方面。 鸣谢:感谢邓彩( http://www.cad.zju.edu.cn/home/dengcai/Data/data.html )提供LPP代码
  • 基于局部保留投影的荧光分子断层成像快速重建
  • 针对已有的局部保留投影(locality preserving projections,LPP)算法可能将相似的类别误投影到一起,导致正确识别率降低的问题.在局部保留投影算法的基础上,提出了一种基于代价敏感学习的稀疏局部保留投影算法...
  • 改进的用于多模式生物特征识别的局部保留投影
  • 通过局部保留投影和稀疏编码实现人脸图像超分辨率
  • 摘要本文介绍了一种基于核局部保留投影(SCKLPP)方法的基于监督Curvelet监督的新识别方法。提出了局部性保留投影(LPP)来减少维数,这既不是监督性的,也不是监督性的。
  • 使用依赖于数据的内核全局-局部保留投影进行非线性过程监控
  • 为了有效提取人脸的非线性结构信息,提出一种新的基于最大散度差的核判别局部保留投影方法.首先通过核函数将样本数据映射到高维特征空间,计算特征空间中样本的散度矩阵,其次将样本原始空间中的近邻图嵌入到散度...
  • 针对数据降维中的噪声干扰问题, 提出基于L1-norm有监督局部保留投影算法SLPP-L1。SLPP-L1利用L1-norm替代了L2-norm; 因为欧式距离比绝对值距离对噪声更加敏感, 使得SLPP-L1抗噪性方面非常有效。实验结果表明, 该方法...
  • 但是,如果直接由分类器处理包含传感器最大稳态响应值的原始特征矩阵,则电子鼻的分类结果并不理想,因此,一种基于监督局部保留投影的新型预处理技术(SLPP)本文提出)处理原始特征矩阵,然后将其放入分类器中以...
  • 局部保留投影(LPP)推导

    万次阅读 多人点赞 2015-12-02 10:28:25
    流形算法的主要思想是能够学习...局部保留投影(LPP) 方法是通过构建空间中各样本对之间的远近亲疏关系,并在投影中保持这种关系,在降维的 同时保留空间中样本的局部邻域结构, 即在低维空间中最小化近邻样本间的距

       流形算法的主要思想是能够学习高维空间中样本的局部邻域结构,并寻找一种子空间能够保留这种流行结构,

    使得样本在投影到低维空间后,得到比较好的局部近邻关系

      所谓流形,是指高维样本空间中呈现的一种低维的局部性的结构。局部保留投影(LPP)
    方法是通过构建空间中各样本对之间的远近亲疏关系,并在投影中保持这种关系,在降维的
    同时保留空间中样本的局部邻域结构, 即在低维空间中最小化近邻样本间的距离加权平方和,

    也可以理解为尽量避免样本集的发散,保持原来的近邻结构。

      设投影过后的样本为yi ,公式LPP 算法的目标函数。


     从该方法的权值矩阵 S 的设置中可以看出,其在对应近邻样本的位置上赋了一个非零权
    值,而对于相距较远的样本则赋零。这样就可以在投影中,达到保留样本的局部邻域(即样
    本的流行结构)的目的。

      公式的推导:





    展开全文
  • 基于局部保留投影和极端学习机的立体图像质量评价,孟迪,李素梅,为解决极端学习机(Extreme Learning Machine, ELM)由于初始权值和隐藏层节点偏移量的随机性引起的预测精度下降问题,本文提出了一种将遗传��
  • 局部保留投影学习总结(LPP)

    万次阅读 2018-09-01 17:28:52
    这篇文章主要的目的是在降低空间维度的同时,能较好的保持内部固定的局部结构,并且它对异化值(通常理解为错误的点,或者为污点)不敏感,这一点可以与主成分分析法(PCA)相区别。 对于高维的空间(x1,x2,x3、、...

    这篇文章主要的目的是在降低空间维度的同时,能较好的保持内部固定的局部结构,并且它对异化值(通常理解为错误的点,或者为污点)不敏感,这一点可以与主成分分析法(PCA)相区别。

    对于高维的空间(x1,x2,x3、、、,xn)——属于S维空间,一般而言,我们需要选择一个降维矩阵A对X进行降维从而得到Y,其中Y=(y1,y2、、、,yn)——属于L维空间,其中L<<S,其表达式如下所示:

                                                                                        

    不多说,直接进入主题——

    • 首先目标函数定义为  :   

                                                                                                                                            (1)

           其中yi与yj代表降维之后的点,Wij是权重矩阵;

    通过最小化上述目标函数,便达到降维目的。大家可以先好好想为什么要这样设置(后面将进行讲解),为了便于计算结果,将(1)转化为矩阵形式如下所示:

                            

    为了防止过拟合的现象,于是给定一个限制:

                                                                   

    则原公式可简化为:

                                                                       

    • 接下来我们就开始解答这个目标函数,其算法的步骤为:

    step one :Constructing the adjacency graph

                    a:ᵋ-neighboorhoods.               

                                                                                 

                   可以设想为一个半径为ᵋ圆的面积内刚好有K个点,但是由于ᵋ 一般难以确定,故经常选择第二种方法,而原文采用的也是下面一种.         

                    b.k nearest nighbors.    依次选取,一直到寻找到第k个近的点的集合构成邻接图.

    step two :Choosing the Weights

                     a.Heat kernel.   

                                                                             

                    注:其中Xi与Xj代表原始空间的点,t为自定义.权重的设定与目标函数有很大的关系,他们相互限制,相互约束,从而达到保持原空间结构的目的。

                     b.Simple-minded.  

                     Wij=1 if and only if vertices i and j are connect by an edge.

    step three :Eigenmaps(计算特征值与特征向量)

                                                                       XLX'a=λXDX'a(等式由拉格朗日函数对a进行求导而得)   

                     此函数大家可以根据已知条件试着推导,注意求特征向量的公式为|aE-A|=0.

                    (including Dii=EWij——其中矩阵D的对角线元素为矩阵W每一列或者每一行的和,L=D-W is the laplacian matrix.The ith column of matrix X is xi)

    对eigenvalues进行从小到大排序,选取前l小的特征值的特征向量构成的矩阵A,最后可得

                                                           x-->y=A'x, A=(a0,a1,...,al-1)

    其中A为降维矩阵.

     

    参考:He X. Locality preserving projections[J]. Advances in Neural Information Processing Systems, 2003, 16(1):186-197.

    展开全文
  • 局部保留投影算法——LPP原理

    千次阅读 2020-02-25 21:20:26
    Locality Preserving Projections 一.构建邻接图 a. 设定常数ε,若两样本点距离小于ε则两点为邻近关系 b....二....1.热核估计:当p1和p2有边相连 ...2.如果p1和p2是临近关系则 Wij=1,否则 Wij=0 三....最...

    Locality Preserving Projections

    一.构建邻接图

    a. 设定常数ε,若两样本点距离小于ε则两点为邻近关系

    b. 若点p1是点p2最近的k个点之一,则p1是p2的临近点

    二.权重获取

    1.热核估计:当p1和p2有边相连

    在这里插入图片描述

    否则 Wij=0

    2.如果p1和p2是临近关系则 Wij=1,否则 Wij=0

    三.目标函数

    ####
    在这里插入图片描述

    在这里插入图片描述

    为了防止消除任意的缩放因子,添加尺度归一条件

    在这里插入图片描述

    最后的目标函数是:

    在这里插入图片描述

    转化为如下方程(拉格朗日乘数法得来)

    在这里插入图片描述

    展开全文
  • LPP(Locality Preserving Projection),局部保留投影. 前几天学习了PCA,LDA算法,都是经典的降维算法。第一种为无监督学习,第二种为监督学习。 今天看了另一种监督学习的降维算法LPP(Locality ...

       前几天学习了PCA,LDA算法,都是经典的降维算法。第一种为无监督学习,第二种为监督学习。

       今天看了另一种监督学习的降维算法LPP(Locality Preserving Projection),在此记录下自己的心得体会。

        就从算法的步骤上来说,LDA和LPP有着惊人的相似,以至于我怀疑他们之间只是同一种方法的不同表示。为了验证我的想法,我采用这两组算法对相同的数据进行降维,降维后的数据证明了我的想法是错的。但是降维后的数据确实非常的相近。还请各路大神指导两者之间的关系。

        LPP算法先需要用明确类别的样本进行训练。

        如有n个K维训练样本,X1,X2...Xn构成矩阵X,样本分为C种。我们需要先构造一个N*N的权重矩阵W.

        Wij的值对应样本Xi和样本Xj的关系。Wij有两种表示方法,我在此就介绍简单的一种,即当且仅当Xi和Xj是同一类的数据时,Wij为1,其余为0。这样我们就可以够着一个N*N的矩阵了。

         接着构造一个对角矩阵D,其中Dii等于W矩阵中第i行或者第i列的和(W为对称阵)。

         最后构造拉普拉斯矩阵L = D - W(至于为什么这样做,我也不清楚,求指导)。

         令X'为X的装置矩阵,求解XLX'a = kXDX'a。求实数k和向量a。

         两边同乘XDX'的逆,这个方程就变成求特征值和特征向量了。确实和LDA很像,LDA中XLX'为类内离散度矩阵,XDX'为类间离散度矩阵。

         求出特征值后,按特征值从大到小排列,取出前m个特征值对应的特征向量,就可以将n维数据降至m维了。

         附上自制实验:

         X =

         1     5     2     4     4     6

         5     3     4     2     6     5 

         两个样本1,3,5为一类,2,4,6为一类(根据x和y的大小分类)

         1.构造权重矩阵W=

         0     0     1     0     1     0

         0     0     0     1     0     1

         1     0     0     0     1     0

         0     1     0     0     0     1

         1     0     1     0     0     0

         0     1     0     1     0     0

         2.构造对角阵D=

         2     0     0     0     0     0

         0     2     0     0     0     0

         0     0     2     0     0     0

         0     0     0     2     0     0

         0     0     0     0     2     0

         0     0     0     0     0     2    

        3.构造拉普拉斯矩阵L=

         2     0    -1     0    -1     0

         0     2     0    -1     0    -1

        -1     0     2     0    -1     0

         0    -1     0     2     0    -1

        -1     0    -1     0     2     0

         0    -1     0    -1     0     2

         4.计算T1 = X*L*X'            T2 = X*D*X'

        T1 =                                 T2 = 
        20    15                             196   180
        15    20                             180   230
         5.计算T = inv(T2)*T1
         T =
         0.1498   -0.0118
        -0.0521    0.0962
         6.求出T的特征值VC和特征向量VA。    [VA,VC] = eig(T)
        VA =
        0.7726    0.1836
       -0.6348    0.9830
        VC =
        0.1596         0
             0    0.0865
         7.取第一个特征值对应的特征向量对X降维。A= [0.7726,-0.6348]
           Y = A*X
           Y =
             -2.4016    1.9586   -0.9941    1.8209   -0.7185    1.4616
           可以验证1,3,5为一类,2,4,6为一类。
         本文仅仅只是理解了过程,原理尚不明确,若有人知晓,望指导。

    posted on 2011-08-25 17:42 oimz 阅读(...) 评论(...) 编辑 收藏

    转载于:https://www.cnblogs.com/oimz/archive/2011/08/25/LPP.html

    展开全文
  • 算法来保留的是局部信息,比如在高维空间中,数据点xi和数据点xj是相邻关系,那么在降维空间后yi和yj必须跟其对应高维xi和xj的关系相同。也就是lpp的损失函数: 3.1此函数的物理意义是 , 各符号说明: ...
  • 局部保留投影--lpp真心好

    千次阅读 2017-03-07 22:10:52
    局部保留投影 (LPP) 方法是通过构建空间中各样本对之间的远近亲疏关系,并在投影中保持这种关系,在降维的 同时保留空间中样本的局部邻域结构, 即在低维空间中最小化近邻样本间的距离加权平方和, 也...
  • 用于多模式生物特征识别的广义局部保留投影
  • 通过基于回归的鲁棒局部保留投影进行面部表情识别
  • 基于四元数局部保留投影的多特征多峰生物特征识别
  • 使用全局性-局部保留投影进行模式转换的非高斯化学过程的性能监控
  • LPP局部保持投影

    2017-10-23 11:53:42
    自己总结了在学习局部保持投影过程中的一些概念和心得
  • LDPP(局部判别保留投影法) 方法 一、 基本介绍 目前帕金森病数据的问题是高冗余、高噪声和小样本,降维可以有效地解决这些问题。本文提出了一种加权局部判别保持投影嵌入集成算法,与现有的特征选择
  • 局部保持投影算法LPP

    2016-03-21 11:31:02
    机器学习中的降维算法,局部保持投影lpp希望对你有用

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,302
精华内容 3,320
关键字:

局部保留投影