精华内容
下载资源
问答
  • Fisher判别分析

    2020-07-14 16:03:27
    Fisher判别分析 将高维度空间的样本投影到低维空间上,使得投影后的样本数据在新的子空间上有最小的类内距离以及最大的类间距离,使得在该子空间上有最佳的可分离性 可以看出右侧投影后具有更好的可分离性。 ...

    Fisher判别分析

    将高维度空间的样本投影到低维空间上,使得投影后的样本数据在新的子空间上有最小的类内距离以及最大的类间距离,使得在该子空间上有最佳的可分离性

    可以看出右侧投影后具有更好的可分离性。

    Fisher判别分析和PCA差别

    刚学完感觉两个很类似,实际上两个方法是从不同的角度来降维。

    PCA是找到方差尽可能大的维度,使得信息尽可能都保存,不考虑样本的可分离性,不具备预测功能。
    LAD(线性判别分析) 是找到一个低维的空间,投影后,使得可分离性最佳,投影后可进行判别以及对新的样本进行预测。

    Fisher判别详解
    Fisher判别分析是要实现有最大的类间距离,以及最小的类内距离

    注意点:

    1.LDA处理后的维度要小于类别数C,Sb的秩肯定小于等于C-1。
    2.Sw矩阵不可逆情况很多,可以先用PCA处理成C-1维后再用LDA,效果挺好的
    3.多分类情况下Sb用全局离散度矩阵减去类内离散度矩阵

     

    其它详解见:https://blog.csdn.net/PinappleMi/article/details/90261680

     

    展开全文
  • 嵌套循环Fisher判别分析算法
  • 线性判别分析(Fisher判别分析) Python编程 线性判别分析(Fisher判别分析) 线性判别分析(LDA)是一种经典的线性学习方法。 LDA的思想非常朴素:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的...
    
    
    
    

    线性判别分析(Fisher判别分析)

    线性判别分析(LDA)是一种经典的线性学习方法。
    LDA的思想非常朴素:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。

    “+”、“_” 分别代表正例和反例,椭圆表示数据簇的外轮廓,虚线表示投影,红色实心圆和实心三角形分别表示两类样本投影后的中心点。

    D={(xi,yi)}i=1mD = \left \{ \left ( x_{i} ,y_{i}\right ) \right \}_{i=1}^{m},yi={0,1}y_{i}=\in \left \{ 0,1 \right \},令XiX_{i}muimu _{i}SigmaiSigma i分别表示第i{0,1}i\in \left \{ 0,1 \right \}类示例的集合、均值向量、协方差矩阵。若将数据投影到直线ω\omega上,则两类样本的中心在直线上的投影分别为ωTμ0\omega ^{T}\mu _{0}ωTμ1\omega ^{T}\mu _{1};若将所有样本点都投影到直线上,则两类样本的协方差分别为ωTΣ0ω\omega ^{T}\Sigma _{0}\omegaωTΣ1ω\omega ^{T}\Sigma _{1}\omega由于直线是一维空间,因此均为实数。
    类内散度矩阵:
    Sω=Σ0+Σ1S_{\omega }= \Sigma _{0}+\Sigma _{1}
    =xX0(xμ0)(xμ0)T+sumxX1(xμ1)(xμ1)T\sum_{x\in X_{0}}^{}\left ( x-\mu _{0} \right )\left ( x-\mu _{0} \right )^{T}+sum_{x\in X_{1}}^{}\left ( x-\mu _{1} \right )\left ( x-\mu _{1} \right )^{T}
    类间散度矩阵:
    Sb=(μ0μ1)(μ0μ1)TS_{b}=\left ( \mu _{0}-\mu _{1} \right )\left ( \mu _{0}-\mu _{1} \right )^{T}
    最大化目标:
    J=ωTSbωωTSωωJ=\frac{\omega ^{T}S_{b}\omega }{\omega ^{T}S_{\omega }\omega}
    确定ω\omega
    ωTSωω=1\omega ^{T}S_{\omega }\omega=1
    J=ωTSbωωTSωωJ=\frac{\omega ^{T}S_{b}\omega }{\omega ^{T}S_{\omega }\omega}等价于
    minω\underset{\omega}{min} ωTSbω-\omega ^{T}S_{b}\omega
    s.t.s_{.}t_{.} ωTSωω=1\omega ^{T}S_{\omega }\omega=1
    由拉格朗日乘子法,上式等价于
    Sbω=λSωωS_{b}\omega=\lambda S_{\omega }\omega
    Sbω=λ(μ0μ1)S_{b}\omega =\lambda \left ( \mu _{0}-\mu _{1} \right )
    ω=Sω1(μ0μ1)\omega =S_{\omega }^{-1}\left ( \mu _{0}-\mu _{1} \right )

    Python编程

    import pandas as pd
    import numpy as np
    import matplotlib.pyplot as plt 
    import seaborn as sns
    # 读取数据
    path=r'Iris.csv'
    df = pd.read_csv(path, header=0)
    Iris1=df.values[0:50,0:4]
    Iris2=df.values[50:100,0:4]
    Iris3=df.values[100:150,0:4]
    # 类均值向量
    m1=np.mean(Iris1,axis=0)
    m2=np.mean(Iris2,axis=0)
    m3=np.mean(Iris3,axis=0)
    # 各类内离散度矩阵
    s1=np.zeros((4,4))
    s2=np.zeros((4,4))
    s3=np.zeros((4,4))
    for i in range(0,30,1):
        a=Iris1[i,:]-m1
        a=np.array([a])
        b=a.T
        s1=s1+np.dot(b,a)    
    for i in range(0,30,1):
        c=Iris2[i,:]-m2
        c=np.array([c])
        d=c.T
        s2=s2+np.dot(d,c) 
    for i in range(0,30,1):
        a=Iris3[i,:]-m3
        a=np.array([a])
        b=a.T
        s3=s3+np.dot(b,a) 
    # 总类内离散矩阵
    sw12=s1+s2
    sw13=s1+s3
    sw23=s2+s3
    a=np.array([m1-m2])
    sw12=np.array(sw12,dtype='float')
    sw13=np.array(sw13,dtype='float')
    sw23=np.array(sw23,dtype='float')
    # 转置矩阵
    a = np.array([m1-m2]).T
    b = np.array([m1-m3]).T
    c = np.array([m2-m3]).T
    # 投影方向
    w12=(np.dot(np.linalg.inv(sw12),a)).T
    w13=(np.dot(np.linalg.inv(sw13),b)).T
    w23=(np.dot(np.linalg.inv(sw23),c)).T
    # 判别函数以及阈值T
    T12=-0.5*(np.dot(np.dot((m1+m2),np.linalg.inv(sw12)),a))
    T13=-0.5*(np.dot(np.dot((m1+m3),np.linalg.inv(sw13)),b))
    T23=-0.5*(np.dot(np.dot((m2+m3),np.linalg.inv(sw23)),c))
    kind1=0
    kind2=0
    kind3=0
    newiris1=[]
    newiris2=[]
    newiris3=[]
    for i in range(30,49):
        x=Iris1[i,:]
        x=np.array([x])
        g12=np.dot(w12,x.T)+T12
        g13=np.dot(w13,x.T)+T13
        g23=np.dot(w23,x.T)+T23
        if g12>0 and g13>0:
            newiris1.extend(x)
            kind1=kind1+1
        elif g12<0 and g23>0:
            newiris2.extend(x)
        elif g13<0 and g23<0 :
            newiris3.extend(x)
    for i in range(30,49):
        x=Iris2[i,:]
        x=np.array([x])
        g12=np.dot(w12,x.T)+T12
        g13=np.dot(w13,x.T)+T13
        g23=np.dot(w23,x.T)+T23
        if g12>0 and g13>0:
            newiris1.extend(x)
        elif g12<0 and g23>0:
            newiris2.extend(x)
            kind2=kind2+1
        elif g13<0 and g23<0 :
            newiris3.extend(x)
    for i in range(30,49):
        x=Iris3[i,:]
        x=np.array([x])
        g12=np.dot(w12,x.T)+T12
        g13=np.dot(w13,x.T)+T13
        g23=np.dot(w23,x.T)+T23
        if g12>0 and g13>0:
            newiris1.extend(x)
        elif g12<0 and g23>0:     
            newiris2.extend(x)
        elif g13<0 and g23<0 :
            newiris3.extend(x)
            kind3=kind3+1
    correct=(kind1+kind2+kind3)/60
    print("样本类内离散度矩阵S1:",s1,'\n')
    print("样本类内离散度矩阵S2:",s2,'\n')
    print("样本类内离散度矩阵S3:",s3,'\n')
    print('-----------------------------------------------------------------------------------------------')
    print("总体类内离散度矩阵Sw12:",sw12,'\n')
    print("总体类内离散度矩阵Sw13:",sw13,'\n')
    print("总体类内离散度矩阵Sw23:",sw23,'\n')
    print('-----------------------------------------------------------------------------------------------')
    print('判断出来的综合正确率:',correct*100,'%')
    
    
    样本类内离散度矩阵S1: [[4.084080000000003 2.9814400000000005 0.5409999999999995
      0.4941599999999999]
     [2.9814400000000005 3.6879200000000028 -0.025000000000000428
      0.5628800000000002]
     [0.5409999999999995 -0.025000000000000428 1.0829999999999995 0.19]
     [0.4941599999999999 0.5628800000000002 0.19 0.30832000000000004]] 
    
    样本类内离散度矩阵S2: [[8.316120000000005 2.7365199999999987 5.568960000000003
      1.7302799999999998]
     [2.7365199999999987 3.09192 2.49916 1.3588799999999999]
     [5.568960000000003 2.49916 6.258680000000002 2.2232399999999997]
     [1.7302799999999998 1.3588799999999999 2.2232399999999997
      1.3543200000000004]] 
    
    样本类内离散度矩阵S3: [[14.328471470220745 3.1402832153269435 11.94600583090379
      1.3147563515201988]
     [3.1402832153269435 3.198721366097457 2.239650145772593
      1.2317617659308615]
     [11.94600583090379 2.239650145772593 11.600816326530618
      1.4958892128279884]
     [1.3147563515201988 1.2317617659308615 1.4958892128279884
      1.6810578925447726]] 
    
    -----------------------------------------------------------------------------------------------
    总体类内离散度矩阵Sw12: [[12.4002   5.71796  6.10996  2.22444]
     [ 5.71796  6.77984  2.47416  1.92176]
     [ 6.10996  2.47416  7.34168  2.41324]
     [ 2.22444  1.92176  2.41324  1.66264]] 
    
    总体类内离散度矩阵Sw13: [[18.41255147  6.12172322 12.48700583  1.80891635]
     [ 6.12172322  6.88664137  2.21465015  1.79464177]
     [12.48700583  2.21465015 12.68381633  1.68588921]
     [ 1.80891635  1.79464177  1.68588921  1.98937789]] 
    
    总体类内离散度矩阵Sw23: [[22.64459147  5.87680322 17.51496583  3.04503635]
     [ 5.87680322  6.29064137  4.73881015  2.59064177]
     [17.51496583  4.73881015 17.85949633  3.71912921]
     [ 3.04503635  2.59064177  3.71912921  3.03537789]] 
    
    -----------------------------------------------------------------------------------------------
    判断出来的综合正确率: 91.66666666666666 %
    

    参考文献

    周志华 《机器学习》
    http://bob0118.club/?p=266

    展开全文
  • 关于LDA可以移步Frank Tian:用线性回归的方式打开LDA​zhuanlan.zhihu.com那么让我们补充学习一下kernel Fisher判别分析是什么。这个Fisher,是个人:Sir Ronald Aylmer Fisher FRS (17 February 1890 – 29 July ...

    关于LDA可以移步

    Frank Tian:用线性回归的方式打开LDAzhuanlan.zhihu.com

    那么让我们补充学习一下kernel Fisher判别分析是什么。

    这个Fisher,是个人:

    Sir Ronald Aylmer Fisher FRS (17 February 1890 – 29 July 1962) was a British statistician and geneticist. For his work in statistics, he has been described as "a genius who almost single-handedly created the foundations for modern statistical science" and "the single most important figure in 20th century statistics". In genetics, his work used mathematics to combine Mendelian genetics and natural selection; this contributed to the revival of Darwinism in the early 20th-century revision of the theory of evolution known as the modern synthesis. For his contributions to biology, Fisher has been called "the greatest of Darwin’s successors".

    名字怪怪的。

    不过看这个介绍,这个Fisher还是蛮强的。

    然后kernel Fisher判别分析Kernel Fisher discriminant analysis自然是这个叫做Fisher提出来的判别分析方法,然后又用了核技巧,于是就叫kernel Fisher判别分析了。

    我在这里简单的介绍一下所谓的“核方法”和“核技巧”,但是具体推导和常见的“核”都不展开讲。


    首先,什么是“核”呢?

    我们先不看它的定义,单纯的思考一个问题:我们怎么将线性不可分的数据分开?

    我想只要是学习过机器学习的人都曾经思考过这个问题,毕竟线性模型作用有限,我们有理由相信大多数 分布都不是线性可分的。

    我们有两种基本思路:

    1. 改变模型,构造出一个非线性的模型,让模型有足够的复杂度将数据分开。
    2. 改变数据,将数据从线性不可分的形式转换为线性可分的形式。

    当年,马文明斯基一本《感知机》差点把联结主义写死了,就是因为线性不可分的问题。而前人们也想到了这两种解决方法。

    我们的核技巧就是根据第二种来的。

    我们来思考第二种方法到底该怎么操作。

    cee13c19e1b81153594181b971d63eda.png
    来自维基百科Kernel method词条

    看上图的左半部分,可以看出这是一个二分类,而两个类别的数据显然是线性不可分的。如何让它线性可分呢?

    右图给出了一种方法,即将他们投影到三维空间中,这样就实现了将线性不可分转变为线性可分。

    问题是,这个映射关系怎么找呢?映射后对应的特征空间应该是几维比较合适呢?

    这是相当头疼的问题。

    好在前辈们发现可以不显式的写出这个函数

    ,而是可以用两个不同的数据映射后的
    内积表示这个函数:

    这里的

    就是
    核函数了。使用核函数代替具体的
    的方法,也就被成为核技巧。

    值得一提的是,核技巧之所以被称为“技巧”,是因为选择合适的核函数某种意义上只一个绝活,往往要看工程师的经验。

    还有就是,为什么我们这里只需要内积呢?要知道核技巧正是因为假设了我们只需要内积才有效的较少了模型的复杂度,减小了我们的工作量。

    这是因为,很多模型中最后的表达式都有“向量内积“这一项,而除了内积之外有不单独要求样本的特征,例如支持向量机的分离超平面可以表示为:

    通过核技巧之间转化为:

    我们在下面的Kernel Fisher Discriminant Analysis也会看到这样的情况。


    Kernel Fisher Discriminant Analysis和Linear Discriminant Analysis大致相同,都是打算用超平面将数据投影在上面然后用投影分类。

    Kernel Fisher Discriminant Analysis使用了核技巧,让原本不能线性可分的数据转变为线性可分了。注意这个核技巧没有体现在超平面上,而是体现在数据上。

    在LDA中,我们要优化的目标为:

    而在KFD中,我们的目标变成了:

    是映射后数据的类间散度矩阵between-class covariance matrix ,
    是映射后数据的类内散度矩阵within-class covariance matrix。

    值得注意的是,在LDA中,给定了数据集,

    就已经确定下来了,优化过程只是让广义瑞利商最大的过程。而在KFDA中,如果我们可以确定下来
    映射函数
    就也可以确定下来,但是我们运用核函数的技巧,不显式的写出映射函数,所以我们需要进一步推导。

    展开后分别是:

    代表均值:

    到这里和LDA都还没有什么区别,接下来,我们的目标是把所有的

    都凑成
    的形式,然后用核函数替代。

    在LDA中,我们的目标是求出合适的

    ,在KFDA中我们的目标也是一样的,但是可以换一种表示形式:

    所以我们现在的目标是求出上面的

    ,当然其实和求出
    是等价的,因为
    都是已知的。

    重写:

    其中

    那么,现在我们可以重写

    其中

    现在,

    是已知的,我们下一阶段的目标是把
    表示为
    ,其中
    也是一个已知的矩阵(这里的已知使之核函数给定的情况下)

    接下来就是一大串推导:

    其中

    , 其中
    是一个单位矩阵,
    是一个每一个元素都为
    的矩阵,
    满足

    上面的推导过程比较跳跃,注意倒数第四行到倒数第三行

    变成了

    这是因为

    无关,对
    的求和之间变成了

    同时把下角标

    换成

    就可以合并后两项了。

    至此,我们就成功的把KFDA化简成了LDA的形式,之后只要拉格朗日乘数法就可以了。

    另外注意

    常常是奇异的,因此加上一个小的单位矩阵:


    参考:

    Kernel method-wikipedia

    Kernel Fisher discriminant analysis-wikipedia

    Benyamin Ghojogh, Fakhri Karray, Mark Crowley:"Fisher and Kernel Fisher Discriminant Analysis: Tutorial".2019

    展开全文
  • 在综合分析冲击地压多种影响因素的基础上,采用Fisher判别分析方法,结合文献提供的张集矿历年冲击地压24组相关数据实例,建立了冲击地压预测预报的Fisher判别分析模型,模型回代预测准确率为100%,误判率为0.将模型应用...
  • lfda, 局部Fisher判别分析的R 包 lfda软件用于对和visualizing局部Fisher判别分析,核局部Fisher判别分析和半监督局部Fisher判别分析算法进行 package 。这些算法的介绍和应用可以在这里找到,这里是,这里是 。 ...
  • Fisher判别分析详解

    万次阅读 多人点赞 2019-05-16 13:24:56
    Fisher判别分析 将高维度空间的样本投影到低维空间上,使得投影后的样本数据在新的子空间上有最小的类内距离以及最大的类间距离,使得在该子空间上有最佳的可分离性 可以看出右侧投影后具有更好的可分离性。 Fisher...

    Fisher判别分析

    将高维度空间的样本投影到低维空间上,使得投影后的样本数据在新的子空间上有最小的类内距离以及最大的类间距离,使得在该子空间上有最佳的可分离性
    在这里插入图片描述
    可以看出右侧投影后具有更好的可分离性。

    Fisher判别分析和PCA差别

    刚学完感觉两个很类似,实际上两个方法是从不同的角度来降维。

    在这里插入图片描述
    PCA是找到方差尽可能大的维度,使得信息尽可能都保存,不考虑样本的可分离性,不具备预测功能。
    LAD(线性判别分析) 是找到一个低维的空间,投影后,使得可分离性最佳,投影后可进行判别以及对新的样本进行预测。

    Fisher判别详解

    Fisher判别分析是要实现有最大的类间距离,以及最小的类内距离
    在这里插入图片描述
    用二分类来分析,设样本数据集为D={(X,Y)}Xiii{ 0,1}D=\{(X,Y)\},X_i是第i类样本的集合,i\in\{\ 0,1\} ,要找的最佳投影为WW

    μi\mu_i为第i类样本质心,NiN_i为第i类的数量μi=1NixXix\mu_i=\frac{1}{N_i}\sum_{x\in X_i} x

    1. 最大的类间距离
      即要投影后两个样本的质心离得越远越好,那么就能得到
      J0=(WTμ1WTμ0)2=(WT(μ1μ0))2=(WT(μ1μ0))(WT(μ1μ0))T=WT(μ1μ0)(μ1μ0)TWJ_0=(W^T\mu_1-W^T\mu0)^2=(W^T(\mu_1-\mu0))^2=(W^T(\mu_1-\mu0))(W^T(\mu_1-\mu0))^T=W^T(\mu_1-\mu0)(\mu_1-\mu0)^TW
      S0=(μ1μ0)(μ1μ0)TS_0=(\mu_1-\mu0)(\mu_1-\mu0)^T ,那么 J0=WTS0WJ_0=W^TS_0W
    2. 最小的类内距离
      即要使得投影后同一类的样本点尽可能聚拢在一起,离质心越近越好。
      J1=xXi(WTxWTui)2=xXi(WT(xui))(WT(xui))T=xXiWT(xui)(xui)TWJ1=\sum_{x\in X_i} (W^Tx-W^Tu_i)^2=\sum_{x\in X_i} (W^T(x-u_i))(W^T(x-u_i))^T=\sum_{x\in X_i} W^T(x-u_i)(x-u_i)^TW
      S1=xXi(xui)(xui)TS_1=\sum_{x\in X_i}(x-u_i)(x-u_i)^T,那么J1=WTS1WJ1=W^TS_1W

    那么我们现在要使得J0J0尽可能大,J1J_1尽可能小,那么就是最大化J=J0J1=WTS0WWTS1WJ=\frac{J_0}{J_1}=\frac{W^TS_0W}{W^TS_1W}

    分式上下都有W,那么W和αW\alpha W效果是一样的,不妨令WTS1W=1W^TS_1W=1,那么优化条件变成
    J=WTS0W,s.t.:WTS1W=1J=W^TS_0W,s.t. :W^TS_1W=1

    拉格朗日乘子法求解,L(W,λ)=WTS0Wλ(WTS1W1)L(W,\lambda)=W^TS_0W-\lambda(W^TS_1W-1)
    dL=(dw)TS0W+WTS0dWλ((dw)TS1W+WTS1dW)dL=(dw)^TS_0W+W^TS_0dW-\lambda((dw)^TS_1W+W^TS_1dW)
    =WTS0TdW+WTS0dWλ(WTS1TdW+WTS1dW)=W^TS_0^TdW+W^TS_0dW-\lambda(W^TS_1^TdW+W^TS_1dW)
    =(2WTS02λWTS1)dW=(2W^TS_0-2\lambda W^TS_1)dW

    运算过程是用到矩阵求导,S0T=S0S_0^T=S_0
    那么LW=(2WTS02λWTS1)T=2S0W2λS1W\frac{\partial L}{\partial W}=(2W^TS_0-2\lambda W^TS_1)^T=2S_0W-2\lambda S_1W ,导数为0处,S0W=λS1WS_0W=\lambda S_1W
    S1S_1可逆的时候,λW=S11S0W\lambda W=S_1^{-1}S0W,那么最优的WW即为S11S0S_1^{-1}S_0的最大的特征向量。
    如果要将XRnX\in R^n投影到Rd(d&lt;n)R^d (d&lt;n)的子空间中,则取前d个特征向量。

    注意点:

    1.LDA处理后的维度要小于类别数C,Sb的秩肯定小于等于C-1。
    2.Sw矩阵不可逆情况很多,可以先用PCA处理成C-1维后再用LDA,效果挺好的
    3.多分类情况下Sb用全局离散度矩阵减去类内离散度矩阵

    参考博客:

    线性分类器之Fisher线性判别
    线性判别分析(Linear Discriminant Analysis)(一)
    数模系列(7):Fisher判别分析(Fisher Discriminant Analysis)

    展开全文
  • 上因为最早由[Fisher, 1936]提出,亦称“Fisher判别分析”。 LDA的基本思想:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影...
  • 提出一种非线性分类方法--基于非线性映射的Fisher判别分析(NM-PDA).首先提取基向量;然后采用Nystrom方法,以基向量为训练样本,将形式未知的非线性映射近似表达为已知形式的非线性映射,这种近似的非线性映射将变量由非...
  • Fisher判别分析法在判别混合水时,只能将此确定为最相像的某一分组,从而发生误判,因此在Fisher判别分析理论的基础上引入了质心距评价法,剔除可能为混合水样的样本数据,可以提高判别结果的准确率。为此选取13种水化学...
  • 基于四元数Fisher判别分析的双峰多特征融合
  • 本文在回顾传统Fisher判别分析理论的基础上,指出了量纲及量纲标准化过程对判别分析过程产生的影响,并建立了一种相对Fisher判别分析方法:。先通过预处理的方法:消除量纲差异带来的虚假影响,然后根据系统要求对观测...
  • Fisher判别分析 转载于:https://www.cnblogs.com/ForTech/p/8556194.html
  • 提出了用于处理多峰问题的本地Fisher判别分析(LFDA)。 它不仅结合了用于保存高维数据局部结构的局部保留投影(LPP)的思想,而且还结合了用于获得判别力的Fisher判别分析(FDA)的思想。 但是,LFDA还存在采样不足...
  • lfda:R中的本地Fisher判别分析
  • 基于重构概率类的半监督局部Fisher判别分析
  • 结合Fisher判别分析和稀疏编码的图像场景分类
  • 针对隧道围岩分类问题,基于Fisher判别分析理论,选用岩石质量指标、完整性指数、饱和单轴抗压强度、纵波波速、弹性抗力系数和结构面摩擦因数等6个指标作为判别因子,以30组隧洞围岩数据作为学习样本进行训练,建立相应...
  • 本文基于增强型Fisher判别准则(EFDC),提出了一种新的特征提取方法,称为零空间多样性Fisher判别分析(NSDFDA),用于人脸识别。 提出了基于新优化准则的NSDFDA,这意味着可以在类内散点的零空间中计算所有判别...
  • 变种Fisher判别分析算法及其在故障诊断中的应用
  • 改进的Fisher判别分析方法基于电子鼻的饮料识别

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 688
精华内容 275
关键字:

fisher判别分析