精华内容
下载资源
问答
  • lda算法matlab实现
    2021-04-20 04:37:23

    MATLAB 与控制系统仿真实践 第6章 MATLAB GUI程序设计初步 MATLAB与控制系统仿真实践, 北京航空航天大学出版社,2009.8. 在线交流,有问必答 引言 MATLAB的GUI程序......

    1 MATLAB 模型预测控制工具箱函数 8.2 系统模型建立与转换函数前面读者论坛了利用系统输入/输出数据进行系统模型辨识的有关函数及使用方 法,为时行模型预测控制器......

    基于LDA的人脸识别技术研... 68页 免费 LDA算法及其在人脸识别中... 4页 免费 可用 基于PCA和LDA的人脸... 4页 1下载券 LDA人脸识别的matlab程序......

    1.5 PCA-LDA 算法的融合 .将 PCA 算法与 LDA 算法构造的特征子空间进行融合,获得其融合空间,然后,将训练样 本与测试样本分别朝该融合特征空间投影,获得识别特征......

    计算机学报,2007,34(6):122-1251 何东风,凌捷.人脸识别技术综述[J].计算机学报,2003,13(12):75-78 何国辉,甘俊英.PCA-LDA 算法在性别鉴别中的应用[J].......

    thefirmneedsexist tOseekassociatesinordertoare anddevelop inthefuriousmarket competition.Sothere several cooperative firmscompetingandseveral—team3.Webuilda firms......

    传统的文本挖掘算法不能很好地对它进行建 模.提出了一个基于LDA的微博生成模型MB-LDA,综合考虑了微博的联系人关联关系和文本 关联关系,来辅助进行微博的主题挖掘.......

    [4]何国辉, 甘俊英.PCA-LDA 算法在性别鉴别中得应用[J].中国图像图...

    该算法通过PCA算法求得训练 样本的特征子空间,并在此基础上计算LDA算法的特征子空间。将PCA算法与LDA算法的特征子空间进行融合,获得PCA—LDA 算法的融合特征空间。...

    基于Matlab的QDMC设计与实现_信息与通信_工程科技_专业资料。提出了一种基于Matlab的二次动态矩阵控制(QDMC)设计方法,充分利用Matlab的强大运算功能,将QDMC交由......

    一’ 3 仿真 实验 论文研究 了人脸识别 中线性子空间分析方法的经典算法2 DPCA、 2DLDA、2DICA,分析了他们的原理 以及各 自的优缺点,通过在O RL和 cMu 人脸......

    地提供给你一个 “两全其美”地方法,因为他们可以用一个命令读入混合地和数值数据( 地做法), 并且你可以改变他们以匹配你特定地应用(如同 做到地).例子:LDAYt......

    里面囊括了几乎所有的数据降维算法: - Principal Component Analysis ('PCA') - Linear Discriminant Analysis ('LDA') - Independent Component Analysis ('ICA')......

    实现一种基于线性判别分析(LDA)的人脸识别算法,完成 以下任务: <1> 查询文献,了解子空间投影的的目的,LDA 算法的原理以及数据投影到最优 子空间的具体过程; <2......

    主题模型LDA 北京10月机器学习班 邹博 2014年11月16日 主要内容和目标 ? ? ? ? ? 共轭先验分布 Dirichlet分布 unigram model LDA Gibbs采样算法 2/49 随机......

    改进的 R-LDA 算法解决 了在所有 FR 中出现的小样本容量(SSS)问题,同时,ANN 对于检测人脸的正面图 像很有用处.在 ORL 及 FERET 人脸数据库上进行了实验,......

    湍度埘压力传感器的十扰波动【1l 补偿前的22%减小到补偿后的1.1% ,』 力传感器的删量精度提高厂20倍 此可见,利川Matlab/NNToolbox对压力传感器温度补偿具有......

    end %% Matlab Toolbox for Dimensionality Reduction % X = [Train;Test]; % no_dims = round(intrinsic_dim(X, 'MLE')); % % 'PCA' 'LDA' 'MDS' ......

    本文重点对线性 子空间方法中的 2DPCA,2DLDA,2DICA 做了理论上的比较,并利用 matlab 编程获得了实验数据的支持。同等的实验条件下,在 ORL 姿态库和 CMU 表情......

    在此基础上,利用 Adaboost、LBP 和 LDA 等人脸识别算法,就可以对图像进行训练,并且产生特征脸和平均脸。最后,经过程序判断, 就可以进行识别结果的输出。 2 ......

    更多相关内容
  • Matlab关于LDA人脸识别-lda.m 请问谁有一些关于 LDA 人脸识别的源程序!谢谢大家了!
  • LDA算法(MATLAB实现)

    热门讨论 2012-11-06 16:02:33
    matlab写的LDA代码,比较好用!
  • LDA算法实现

    2017-03-21 20:04:33
    一些关于LDA算法实现的例子,还有MATLAB的代码实现
  • 3.1 二类LDA算法 1.二类LDA原理 \quad \quadLDA(Linear Discriminant Analysis)是是一种监督学习的降维技术,LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”,即分类依据是方差。 \quad \...

    3-1 二类LDA算法及MATLAB实现

    1.二类LDA原理

    \quad \quad LDA(Linear Discriminant Analysis)是是一种监督学习的降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”,即分类依据是(协)方差。
    注 在概率论和统计学中,协方差用于衡量两个变量的总体误差,设 x , y x,y x,y是两个随机变量,则协方差定义为:
    c o v ( x , y ) = E [ ( x − E ( x ) ) ( y − E ( y ) ) ] \quad \quad\quad\quad\quad cov(x,y)=E[(x-E(x))(y-E(y))] cov(x,y)=E[(xE(x))(yE(y))]

    \quad \quad 对于二类LDA而言,它的输出结果是二维的。我们希望给定的数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近。
    \quad \quad 假设数据集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) D={(x_1,y_1),(x_2,y_2),…,(x_m,y_m)} D=(x1,y1),(x2,y2),,(xm,ym),其中任意样本 x i x_i xi n n n维向量, y i ∈ { 0 , 1 } y_i\in\{0,1\} yi{0,1}。我们定义 N j , j = 0 , 1 N_j,j=0,1 Nj,j=0,1为第 j j j类样本的个数(两数值一般相同), X j X_j Xj为第 j j j类样本的集合,而 u j ( j = 0 , 1 ) u_j(j=0,1) uj(j=0,1)为第 j j j类样本的均值向量,定义 ∑ j ( j = 0 , 1 ) \sum_j(j=0,1) j(j=0,1)为第 j j j类样本的协方差矩阵(严格说是缺少分母部分的协方差矩阵).则:
    \quad \quad \quad \quad u j = 1 N j ∑ x ∈ X j x u_j=\frac{1}{N_j}\underset{x\in X_j}{\sum}x uj=Nj1xXjx
    \quad \quad \quad \quad ∑ j = 1 N j ∑ x ∈ X j ( x − u j ) ( x − u j ) T \sum_j=\frac{1}{N_j}\underset{x\in X_j}{\sum}(x-u_j)(x-u_j)^T j=Nj1xXj(xuj)(xuj)T
    由于输出结果只有两类,我们将数据投影到一条直线上即可。

    于是,分类的关键在于确定投影直线。不妨设投影直线是向量 w w w,则对任意一个样本 x i x_i xi,它在直线 w w w的投影为 w T x i w^Tx_i wTxi,对于两个类别的中心点 u 0 u_0 u0, u 1 u_1 u1,在直线 w w w的投影为 w T u 0 w^Tu_0 wTu0 w T u 1 w^Tu_1 wTu1。若要使得类间距离最大,即使得:
    \quad \quad\quad \quad ∣ ∣ w T u 0 − w T u 1 ∣ ∣ 2 2 ||w^Tu_0-w^Tu_1||^{2}_{2} wTu0wTu122
    最大化。若要使得同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差:
    \quad \quad\quad \quad w T ∑ 0 w w^T\sum_0w wT0w, \quad w T ∑ 1 w w^T\sum_1w wT1w
    尽可能的小,即最小化
    \quad \quad\quad \quad w T ∑ 0 w + w T ∑ 0 w w^T\sum_0w+w^T\sum_0w wT0w+wT0w
    于是,优化目标变为:
    \quad a r g m a x J ( w ) = ∣ ∣ w T u 0 − w T u 1 ∣ ∣ 2 2 w T ∑ 0 w + w T ∑ 0 w = w T ( u 0 − u 1 ) ( u 0 − u 1 ) T w w T ∑ 0 w + w T ∑ 0 w argmaxJ(w)=\frac{||w^Tu_0-w^Tu_1||^{2}_{2}}{w^T\sum_0w+w^T\sum_0w}=\frac{w^T(u_0-u_1)(u_0-u_1)^Tw}{w^T\sum_0w+w^T\sum_0w} argmaxJ(w)=wT0w+wT0wwTu0wTu122=wT0w+wT0wwT(u0u1)(u0u1)Tw
    为了计算优化目标,引入瑞利商的定义:
    瑞利商是形如
    \quad \quad\quad \quad R ( A , x ) = x T A x x T x R(A,x)=\frac{x^TAx}{x^Tx} R(A,x)=xTxxTAx
    的函数,其中 x x x是n维向量, A A A n × n n\times n n×n的Hermitan矩阵,则瑞利商满足即它的最大值等于矩阵 A A A最大的特征值,而最小值等于矩阵 A A A的最小的特征值。

    证:由正交变换的知识, x T A x x^TAx xTAx可相似对角化为 λ 1 y 1 2 + . . . + λ n y n 2 \lambda_1y_1^2+...+\lambda_ny_n^2 λ1y12+...+λnyn2,则 λ m i n ( y 1 2 + . . . + y n 2 ) ≤ λ 1 y 1 2 + . . . + λ n y n 2 ≤ λ m a x ( y 1 2 + . . . + y n 2 ) \lambda_{min}(y_1^2+...+y_n^2)\leq\lambda_1y_1^2+...+\lambda_ny_n^2\leq\lambda_{max}(y_1^2+...+y_n^2) λmin(y12+...+yn2)λ1y12+...+λnyn2λmax(y12+...+yn2)

    回到本文,令类内散度矩阵 S w S_w Sw
    S w = ∑ 0 + ∑ 1 = ∑ x ∈ X 0 ( x − x 0 ) ( x − x 0 ) T + ∑ x ∈ X 1 ( x − x 1 ) ( x − x 1 ) T S_w=\sum_0+\sum_1=\underset{x\in X_0}{\sum}(x-x_0)(x-x_0)^T+\underset{x\in X_1}{\sum}(x-x_1)(x-x_1)^T Sw=0+1=xX0(xx0)(xx0)T+xX1(xx1)(xx1)T
    同时定义类间散度矩阵 S b S_b Sb
    \quad \quad\quad \quad S b = ( u 0 − u 1 ) ( u 0 − u 1 ) T S_b=(u_0-u_1)(u_0-u_1)^T Sb=(u0u1)(u0u1)T
    则优化目标变为
    \quad \quad\quad \quad a r g m a x J ( x ) = w T S b w w T S w w argmaxJ(x)=\frac{w^TS_bw}{w^TS_{w}w} argmaxJ(x)=wTSwwwTSbw
    显然, S w S_w Sw正定,利用瑞利商的性质, J ( x ) J(x) J(x)的最大值为 S w − 1 2 S b S w − 1 2 S_w^{-\frac{1}{2}}S_bS_w^{-\frac{1}{2}} Sw21SbSw21的最大特征值。对应的 w w w S w − 1 2 S b S w − 1 2 S_w^{-\frac{1}{2}}S_bS_w^{-\frac{1}{2}} Sw21SbSw21的最大特征值所对应的特征向量。

    此时 S w − 1 S b S_w^{-1}S_b Sw1Sb的特征值与 S w − 1 2 S b S w − 1 2 S_w^{-\frac{1}{2}}S_bS_w^{-\frac{1}{2}} Sw21SbSw21的特征值相等, S w − 1 S b S_w^{-1}S_b Sw1Sb的最大特征值所对应的特征向量 w ′ = S w − 1 2 w w'=S_w^{-\frac{1}{2}}w w=Sw21w
    证明:设 A = S w − 1 2 S b S w − 1 2 A=S_w^{-\frac{1}{2}}S_bS_w^{-\frac{1}{2}} A=Sw21SbSw21 B = S w − 1 S b B=S_w^{-1}S_b B=Sw1Sb,设 λ , x \lambda,x λ,x分别为 A A A的特征值和特征向量,则
    A x = S w − 1 2 S b S w − 1 2 x = λ x \quad \quad\quad\quad Ax = S_w^{-\frac{1}{2}}S_bS_w^{-\frac{1}{2}}x=\lambda x Ax=Sw21SbSw21x=λx
    等式两端同时左乘 S w − 1 2 S_w^{-\frac{1}{2}} Sw21有:
    S w − 1 2 A x = S w − 1 S b S w − 1 2 x = S w − 1 2 λ x = λ S w − 1 2 x \quad \quad\quad S_w^{-\frac{1}{2}}Ax = S_w^{-1}S_bS_w^{-\frac{1}{2}}x=S_w^{-\frac{1}{2}}\lambda x=\lambda S_w^{-\frac{1}{2}}x Sw21Ax=Sw1SbSw21x=Sw21λx=λSw21x
       ⟺    \iff
    B S w − 1 2 x = λ S w − 1 2 x \quad \quad\quad BS_w^{-\frac{1}{2}}x =\lambda S_w^{-\frac{1}{2}}x BSw21x=λSw21x
    从而 λ , S w − 1 2 x \lambda,S_w^{-\frac{1}{2}}x λ,Sw21x分别是 B B B的特征值和特征向量。

    2.算例与程序

    其他文章中讲的LDA算法实例也都不错,但由于不太好找例子,我只好用MATLAB及Excel造一个例子。
    给定一个随机向量 A A A,对随机生成的其他向量,若 A x > c Ax>c Ax>c(c为任意常数),则类别分为1,反之分为0.显然分类依据是线形的。

    令A=0,2,3,-4
    B=在这里插入图片描述
    加上分类后的数据
    在这里插入图片描述

    编写程序求投影向量 w w w

    clc,clear
    A=xlsread('test1.xlsx');
    n=0;m=0;
    [s,t]=size(A(:,1:end-1));
    sum1=zeros(1,t);sum2=sum1;
    for i=1:s
        if A(i,end)==1
            n=n+1;
            sum1=sum1+A(i,1:end-1);
        else
            m=m+1;
            sum2=sum2+A(i,1:end-1);
        end
    end
    u1=sum1./n;
    u2=sum2./m;
    u1=u1';u2=u2';
    a1=zeros(t,t);a2=a1;
    for i=1:s
        if A(i,end)==1
            a1=a1+(A(i,1:end-1)'-u1)*(A(i,1:end-1)'-u1)';
        else
            a2=a2+(A(i,1:end-1)'-u2)*(A(i,1:end-1)'-u2)';
        end
    end
    sw=a1+a2;
    sb=(u1-u2)*(u1-u2)';
    [x,y]=eig(sw\sb);
    eigenvalue=diag(y);%求对角线向量
    lamda=max(eigenvalue);%求最大特征值
    for i=1:length(y)%求最大特征值对应的序数
        if lamda==eigenvalue(i)
            break;
        end
    end
    [m,n]=size(x);%得到行数和列数
    y_lamda=x(:,i);%求矩阵最大特征值对应的特征向量
    w=sw^(-1/2)*y_lamda;
    

    验证:
    随机生成一个向量 x 1 x1 x1

     x1=rand(10,1);
    

    x=
    在这里插入图片描述

    用A作用x的判别结果(结果大于1判为1,否则为0)为(0)

    在这里插入图片描述
    用w作用x的判别结果
    在这里插入图片描述

    用w作用后为原矩阵(B)被将为1维
    在这里插入图片描述
    我们发现正值在原判别中是0,负值在原判别中是1,随机生成的x被w作用的值为正,判别结果应该为0,与被A作用结果相同。
    在这里插入图片描述

    展开全文
  • 实现LDA算法代码

    2014-11-14 10:09:13
    matlab代码,LDA算法,自己写的,有数据mat,可以实现
  • matlab代码lda 潜在狄利克雷分配 介绍 潜在狄利克雷分配 (LDA) 是文本文档的概率生成模型。 文档被建模为一组“主题”的混合体。 使用变分贝叶斯 (VB) 算法,可以学习与语料库中的文档对应的主题集。 然后可以将这些...
  • LDA算法原理及matlab实现

    万次阅读 多人点赞 2016-11-09 19:37:05
    注:本文非笔者原创,原文转载自:... 1.LDA是什么 线性判别式分析(Linear Discriminant Analysis),简称为LDA。也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Be

    注:本文非笔者原创,原文转载自:http://blog.csdn.net/porly/article/details/8020696

    1. LDA是什么

    线性判别式分析(Linear Discriminant Analysis),简称为LDA。也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Belhumeur引入模式识别和人工智能领域。

    基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离最小的类内距离,即模式在该空间中有最佳的可分离性。

    LDA与前面介绍过的PCA都是常用的降维技术。PCA主要是从特征的协方差角度,去找到比较好的投影方式LDA更多的是考虑了标注即希望投影后不同类别之间数据点的距离更大,同一类别的数据点更紧凑

    下面给出一个例子,说明LDA的目标。

     

           可以看到两个类别,一个绿色类别,一个红色类别。左图是两个类别的原始数据,现在要求将数据从二维降维到一维。直接投影到x1轴或者x2轴,不同类别之间会有重复,导致分类效果下降。右图映射到的直线就是用LDA方法计算得到的,可以看到,红色类别和绿色类别在映射之后之间的距离是最大的,而且每个类别内部点的离散程度是最小的(或者说聚集程度是最大的)。

    这里还有一个LDA的例子:

    下图是一个LDA和PCA区别的例子:

           两个类别,class1的点都是圆圈,class2的点都是十字。图中有两条直线,斜率在1左右的这条直线是PCA选择的映射直线,斜率在 -1左右的这条直线是LDA选择的映射直线。其余不在这两条直线上的点是原始数据点。可以看到由于LDA考虑了“类别”这个信息(即标注),映射后,可以很好的将class1和class2的点区分开。也就是说,LDA是以分类为导向的,考虑的是如何选择投影方向使得分类更好,是有监督的;而PCA是一种无监督的降维方式,它只是单纯的降维,它考虑的是如何选择投影面才能使得降维以后的样本信息保留的最大(而这是通过方差大来体现的)。

    2. LDA的一些说明

       第一,降维后的维度是多少?

         PCA降维是直接和数据维度相关的,比如原始数据是n维的,那么PCA后,可以任意选取1维、2维,一直到n维都行(当然是对应特征值大的那些)。LDA 降维是直接和类别的个数相关的,与数据本身的维度没关系,比如原始数据是n维的,一共有C个类别,那么LDA降维之后,一般就是1维,2维到C-1维进行选择(当然对应的特征值也是最大的一些),举个例子,假设图象分类,两个类别正例反例,每个图象10000维特征,那么LDA之后,就只有1维特征,并且这维特征的分类能力最好。
    PS:对于很多两类分类的情况,LDA之后就剩下1维,找到分类效果最好的一个阈值貌似就可以了。

       第二,投影的坐标系是否正交

        PCA投影的坐标系都是正交的,而LDA根据类别的标注,关注分类能力,因此不保证投影到的坐标系是正交的(一般都不正交)。

    3. LDA计算过程(两个类别)

    这一节,主要讨论只有两个类别的数据,LDA的计算。现在要找到一个向量w,将数据x投影到w上去之后,得到新的数据y。第一,为了实现投影后的两个类别的距离较远,用映射后两个类别的均值差的绝对值来度量。第二,为了实现投影后,每个类内部数据点比较聚集,用投影后每个类别的方差来度量。

    类别i的均值:


       


        类别i投影后的均值(实际上等于mi的投影):


        


        投影后均值差的绝对值:


        


        投影后的方差(这里的y是类别i中数据投影后的数据,即y=w_t * x):


        


        目标优化函数为:


        


        下面通过展开m'和s',定义S_B和S_W:

      

        

    优化目标J(w)改写如下,这样是为了方便推导出计算w的方法。


        


        推导过程忽略了,最后推导结果如下:


        

    假设数据是n维特征,m个数据,分类个数为2。那么Sw实际上是每个类别的协方差矩阵之和,每个类别的协方差矩阵都是n*n的,因此Sw是n*n的,m1-m2是n*1的。计算得到的w是n*1的,即w将维特征映射为1维。

    PS:这里不用纠结与Sw的协方差矩阵形式,实际上这是拆拆开来w和w_t后的结果,实际上w*Sw*w_t后,仍旧是一个数值,即表示两个类的投影后方差之和。

    4. LDA计算过程(多个类别)

         对于S_w,就是“两个类别的协方差矩阵之和”变成了“多个类别的协方差矩阵之和”。


        

     

          对于S_b,以前是“两个类别的均值之差的绝对值”,现在多个类别了,怎么计算呢?计算任意两个类别之间的均值之差的绝对值之和?这样对于N个类别,需要 C(N,2)次计算,这可能是一个方法,不过LDA使用的方法,计算每个类别的均值与所有类别均值的差异,并且对每个类别的数据量进行加权处理。下式中,m为所有类别的均值,m_i为类别i的均值,n_i为类别i的数据量。


        

            对于n维特征、C个类别、m个样本的数据,是将n维数据映射为C-1维。即所求的w是一个n*(c-1)的矩阵。S_w是一个n*n的矩阵(没有除以样本数的协方差矩阵之和),S_B是一个C*C的矩阵,实际上S_B矩阵的的秩最多是C-1,这是因为n_i*(m_i-m)这c向量实际上是线性相关的,因为他们的和是均值m的常数倍。这导致后面求解w,实际上是求出C-1个向量一个构成的一个w。

    具体计算忽略。

    下面就是一个三个类别的例子: 

    4. LDA其他变种

    如果原始数据投影后,仍旧不能很好的分开,那么Kernel LDA是一个解决方法。

    LDA在计算量上与数据的维度有关,2DLDA能够大大减小LDA计算量。

    5. LDA的一些问题

    第一,LDA最多投影出C-1维特征,如果需要更多特征,则要引入其他方法。

    第二,LDA假设数据服从单峰高斯分布,比如下面的复杂数据结构。

    5. 参考

    Introduction to LDA
    Linear Discriminant Analysis - A Brief Tutorial
      http://www.aiaccess.net/English/Glossaries/GlosMod/e_gm_fisher_discriminant.htm

    线性判别分析(Linear Discriminant Analysis, LDA)算法分析

    转载自:http://blog.csdn.net/jnulzl/article/details/49894041http://blog.csdn.net/jnulzl/article/details/49894041

    一、前言

    最近由于研究需要,要用到线性判别分析(LDA)。于是找了很多资料来看,结果发现大部分讲的都是理论知识,因此最后还是看的一知半解,后来终于找到了个英文的文档,作者由PCA引入LDA,看过后豁然开朗,主要是文档中有详细的例子,为了保持原版在此就直接粘贴过来了——后面的例子是结合MATLAB实现的!

    二、LDA理论详解

    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述

    三、LDA实例详解

    下面是作者文档中配的一个具体例子,其中的代码是MATLAB代码。

    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27

    四、相关的中文LDA资料

    除了上面英文版的LDA外,我感觉以下关于LDA的中文文章讲的也是挺不错的:

    1、线性判别分析(Linear Discriminant Analysis)(一)

    2、线性判别分析(Linear Discriminant Analysis, LDA)算法分析

    3、LDA 线性判别分析

    4、机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)

    LDA详细推导:

    展开全文
  • Matlab关于多目标分类的算法实现有代码及详细注释-CSLDA.m 按照文献“类依赖的线性判别分析”给出的CSLDA算法思路,我编写出相应代码,然后用UCI实验室测试数据测试,效果不太好,那点错了吗?该如何修正?望高手...
  • LDA算法MATLAB源码实现,内附3个demo: 第1个demo:模拟二维高斯数据,降至1维,可视化 第2个demo:针对人脸-非人脸200维特征,降至3维,可视化 第3个demo:针对olivetti数据集,选取5个ID-50张人脸,降至3维...
  • 相应地,实现了几种分类算法:支持向量机(SVM),高斯二次最大似然和K近邻(KNN)和高斯混合模型(GMM)。 结论 我们的实验表明,SVM是增加维数空间的最可靠方法,而SVM和LDA对噪声最敏感。 文献资料 代码运行指令 ...
  • LDA详解及其matlab代码

    热门讨论 2015-03-25 10:35:26
    主题模型(Topic Model)LDA详解及其Matlab代码
  • MATLAB 关于 LDA 算法

    2010-03-22 22:53:39
    % This code is LDA base face recoginition programme. It reads nots(here 6) % facse from ORL database and the rest (nump-nots) are used as test. % LDA_Performance shows the recognition performance. % ...
  • LDA算法对于两类问题的LDA(Matlab实现)1 function [ W] = FisherLDA(w1,w2)2 %W最大特征值对应的特征向量3 %w1 第一类样本4 %w2 第二类样本56 %第一步:计算样本均值向量7 m1=mean(w1);%第一类样本均值8 m2=mean(w2)...

    LDA算法

    对于两类问题的LDA(Matlab实现)

    1 function [ W] = FisherLDA(w1,w2)2 %W最大特征值对应的特征向量3 %w1 第一类样本4 %w2 第二类样本5

    6 %第一步:计算样本均值向量7 m1=mean(w1);%第一类样本均值8 m2=mean(w2);%第二类样本均值9 m=mean([w1;w2]);%总样本均值10

    11 %第二步:计算类内离散度矩阵Sw12 n1=size(w1,1);%第一类样本数13 n2=size(w2,1);%第二类样本数14 %求第一类样本的散列矩阵s115 s1=0;16 for i=1:n117 s1=s1+(w1(i,:)-m1)‘*(w1(i,:)-m1);18 end19 %求第二类样本的散列矩阵s220 s2=0;21 for i=1:n222 s2=s2+(w2(i,:)-m2)‘*(w2(i,:)-m2);23 end24 Sw=(n1*s1+n2*s2)/(n1+n2);25 %第三步:计算类间离散度矩阵Sb26 Sb=(n1*(m-m1)‘*(m-m1)+n2*(m-m2)‘*(m-m2))/(n1+n2);27 %第四步:求最大特征值和特征向量28 %[V,D]=eig(inv(Sw)*Sb);%特征向量V,特征值D29 A = repmat(0.1,[1,size(Sw,1)]);30 B = diag(A);31 [V,D]=eig(inv(Sw + B)*Sb);32 [a,b]=max(max(D));33 W=V(:,b);%最大特征值对应的特征向量34 end

    测试:

    cls1_data=[2.95 6.63;2.53 7.79;3.57 5.65;3.16 5.47];

    cls2_data=[2.58 4.46;2.16 6.22;3.27 3.52];

    %样本投影前

    plot(cls1_data(:,1),cls1_data(:,2),‘.r‘);

    hold on;

    plot(cls2_data(:,1),cls2_data(:,2),‘*b‘);

    hold on;

    W=FisherLDA(cls1_data,cls2_data);

    %样本投影后

    new1=cls1_data*W;

    new2=cls2_data*W;

    k=W(2)/W(1);

    plot([0,6],[0,6*k],‘-k‘);

    axis([2 6 0 11]);

    hold on;

    %画出样本投影到子空间点

    for i=1:4

    temp=cls1_data(i,:);

    newx=(temp(1)+k*temp(2))/(k*k+1);

    newy=k*newx;

    plot(newx,newy,‘*r‘);

    end;

    for i=1:3

    temp=cls2_data(i,:);

    newx=(temp(1)+k*temp(2))/(k*k+1);

    newy=k*newx;

    plot(newx,newy,‘ob‘);

    end;

    结果:

    af58687fe17cc4471b571c9b2c6644bd.png

    原文:http://www.cnblogs.com/simon-c/p/4961942.html

    展开全文
  • 资源名:LDA算法的人脸识别程序(附有相应的论文)_LDA_人脸识别_matlab 资源类型:matlab项目全套源码 源码说明: 全部项目源码都是经过测试校正后百分百成功运行的,如果您下载后不能运行可联系我进行指导或者更换。...
  • LDA算法MATLAB代码及其结果截图

    热门讨论 2010-08-07 17:23:16
    这是一个LDA算法,有实例分析,并给出数据进行验证预测。对于初学者很有帮助。
  • LDAmatlab实现

    2013-03-15 16:32:10
    用于铜浮选工况识别的,多类训练集的线性判别分析源代码(matlab
  • 1 简介 随着社会的进步和科技的发展,生物特征的识别...主成分分析(Principal Component Analysis)算法简称 PCA,是一种有效的特征提取方法,算法将人脸图像转换成一个列向量,经过变换后可以有效降低其维数,又能
  • lda降维matlab代码用于自适应局部判别分析的Matlab代码-ACM TKDD 2020 基于保留线性判别分析(LDA)的降维算法用于处理非高斯集数据集。
  • LDAmatlab实现

    热门讨论 2012-07-16 14:30:19
    LDA( Linear Discriminant Analysis),很不错
  • LDA算法matlab源代码

    2013-07-19 10:16:43
    使用LDA(线性判别分析)算法提取一维数字信号(数组)的特征,可用于信号的分类识别。
  • 现在我们回到LDA的原理上,我们在第一节说讲到了LDA希望投影后希望同一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,但是这只是一个感官的度量。现在我们首先从比较简单的二类...
  • Matlab关于多目标分类的算法实现有代码及详细注释-UCI.DAT 按照文献“类依赖的线性判别分析”给出的CSLDA算法思路,我编写出相应代码,然后用UCI实验室测试数据测试,效果不太好,那点错了吗?该如何修正?望高手...
  • 代码实现matlab) function [Y,W,lambda]=LDA(X,L) %%X为数据集,L为标签 %%%第一步:初始化变量 classes = unique(L)'; %不同的类 k = numl(classes); %总共多少个类 n=zeros(k,1); %用来存储每个类的个数 C=...
  • 题目如下:代码实现LDA如下:LDA.mclearclc% 生成training sampleMU1 = [6 10]';MU2 = [6 20]';SIGMA1 = [2 4; 4 9];SIGMA2 = [2 4; 4 9];M1 = mvnrnd(MU1,SIGMA1,1000);M2 = mvnrnd(MU2,SIGMA2,1000);M...
  • 前言 正题 1.LDA的思想 2. 瑞利商(Rayleigh quotient)与广义瑞利商(genralized Rayleigh quotient) ...5.LDA算法流程 二类LDA matlab举例: 1.读取数据集 2.分离数据集 3.求解w 4.输出降维后的数据集
  • 线性判别式分析(Linear Discriminant Analysis, LDA)算法,利用MATLAB实现。附实例原始代码以及结果图
  • em算法matlab代码Matlab的潜在Dirichlet分配 这是David Blei用C语言编写的Latent Dirichlet Allocation原始实现Matlab版本。 该软件包包括一些API函数,这些函数通过mex接口内部调用原始C实现。 使用该软件包之前...
  • 21ic下载_经典的LDA特征选择算法,用matlab实现,包括数据集

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,516
精华内容 1,006
关键字:

matlab实现lda算法

matlab 订阅
友情链接: modelsim_guide_cn.rar