精华内容
下载资源
问答
  • 2021-04-21 15:49:33

    matlab实现主成分分析 princomp函数

    最近看了些主成分分析,混迹Matlab论坛,翻了n多帖子,对princomp函数有了些了解。

    在此只讲一些个人理解,并没有用术语,只求通俗。

    贡献率:每一维数据对于区分整个数据的贡献,贡献率最大的显然是主成分,第二大的是次主成分......

    [coef,score,latent,t2] = princomp(x);(个人观点):

    x:为要输入的n维原始数据。带入这个matlab自带函数,将会生成新的n维加工后的数据(即score)。此数据与之前的n维原始数据一一对应。

    score:生成的n维加工后的数据存在score里。它是对原始数据进行的分析,进而在新的坐标系下获得的数据。他将这n维数据按贡献率由大到小排列。(即在改变坐标系的情况下,又对n维数据排序)

    latent:是一维列向量,每一个数据是对应score里相应维的贡献率,因为数据有n维所以列向量有n个数据。由大到小排列(因为score也是按贡献率由大到小排列)。

    coef:是系数矩阵。通过cofe可以知道x是怎样转换成score的。

    则模型为从原始数据出发:

    score= bsxfun(@minus,x,mean(x,1))*coef;(作用:可以把测试数据通过此方法转变为新的坐标系)

    逆变换:

    x= bsxfun(@plus,score*inv(coef),mean(x,1))

    下面通过一个例子来说明:

    %%

    %清屏

    clear

    %%

    %初始化数据

    a=[-14.[1**********]68,-3.[1**********]016,1.[1**********]498,3.[1**********]601;-16.[1**********]48,-2.[1**********]996,-0.[**************],1.[1**********]079;-15.[1**********]05,-2.[1**********]451,-0.[**************],1.[1**********]479;-15.[1**********]13,-2.[1**********]257,0.[**************],-0.[**************];-17.[1**********]00,-3.[1**********]555,0.[**************],1.[1**********]042;-17.[1**********]79,-4.[1**********]407,-0.[**************],-0.[**************];-14.[1**********]65,-3.[1**********]621,-0.[**************],-0.[**************];-15.[1**********]66,-2.[1**********]568,-1.[1**********]704,-1.[1**********]753;];

    x=a;

    %%

    %调用princomp函数

    [coef,score,latent,t2] = princomp(x);

    score

    %测试score是否和score_test一样

    score_test=bsxfun(@minus,x,mean(x,1))*coef;

    score_test

    latent=100*latent/sum(latent)%将latent总和统一为100,便于观察贡献率

    pareto(latent);%调用matla画图

    上图是通过自带函数绘制,当贡献率累加至95%,以后的维数会不在显示,最多只显示10维。

    下面用自己编写的表示:

    之前的错误认识:

    1.认为主成分分析中latent显示的贡献值是原始数据的,其实是加工后的数据的。解释:对原始数据既然选择PCA方法,那么计算机认为原始数据每维之间可能存在关联,你想去掉关联、降低维数。所以采用这种方法的。所以计算机并不关心原始数据的贡献值,因为你不会去用了,用的是加工后的数据(这也是为什么当把输入数据每一维的顺序改变后,score、latent不受影响的原因)。

    2.认为PCA分析后自动降维,不对。PCA后会有贡献值,是输入者根据自己想要的贡献值进行维数的改变,进而生成数据。(一般大家会取贡献值在85%以上,要求高一点95%)。

    3.PCA分析,只根据输入数据的特征进行主成分分析,与输出有多少类型,每个数据对应哪个类型无关。如果样本已经分好类型,那PCA后势必对结果的准确性有一定影响,我认为对于此类数据的PCA,就是在降维与准确性间找一个平衡点的问题,让数据即不会维数多而使运算复杂,又有较高的分辨率。

    更多相关内容
  • 使用MATLAB自带PCA函数进行人脸识别-princomp_face_recognition.rar replyreload = ',' 2061347; 本帖最后由 heawjc 于 2013-5-7 01:25 编辑 目前网络上关于PCA的人脸识别大都是没有调用MATLAB自带的PCA接口来...
  • 由于本人最近需要处理的数据特征太多,导致分类不准确,...整理了各位博主的伪代码,并写成matlab程序,然后自己利用matlab自带pca函数进行计算,两种方法进行比较,程序已全副武装,只需要导入自己数据就能运行。
  • matlab 自带pca函数

    万次阅读 多人点赞 2018-10-25 19:39:27
     因为pca在各个学科都有使用,每个学科对于名词的叫法都不太一样,使用的目的都不太一样,我就是单纯的想使用降维,发现matlab函数的pca函数的输入参数除了数据集X还有10个....弄了一段时间才明白....这里分享一下.有...

    matlab 自带函数pca的用法
         因为pca在各个学科都有使用,每个学科对于名词的叫法都不太一样,使用的目的都不太一样,我就是单纯的想使用降维,发现matlab函数的pca函数的输入参数除了数据集X还有10个....弄了一段时间才明白....这里分享一下.有错误和不清楚的还请大家指正

    数据集X(每行为一个样本,行数为样本数)
    - coeff = pca(X)
    - coeff = pca(X,Name,Value)
    - [coeff,score,latent] = pca(___)
    - [coeff,score,latent,tsquared] = pca(___)
    - [coeff,score,latent,tsquared,explained,mu] = pca(___)
    i.e 

    Input Argument 0
    X :--数据集 假设n个样本, 每个样本p维,则 X是n-by-p的matrix

    Input Argument 1
    'Algorithm' — Principal component algorithm
    'svd' (default) | 'eig' | 'als'
    解释:PCA 涉及到求协方差矩阵的特征向量, 在matlab 有3中算法
    默认 :SVD,
    eig (Eigenvalue decomposition )算法, 此算法当n(number of examples) > p (features) 时,速度快于SVD,但是计算的结果没有SVD精确
    als( Alternating least squares )算法,此算法为了处理数据集X中有少许缺失数据时的情况(i.e 0), 但是对于X为稀疏数据集(缺失数据过多)时,不好用

    Input Argument 2
    'Centered' — Indicator for centering columns
    true (default) | false
    解释:选择是否对数据进行中心化, 也是数据的特征是否进行零均值化(i.e.按列减去均值, 为了得到covariance            
            matrix), 如果选择了true,  则可用score*coeff'恢复中心化后的X, 若选择了false,则可用score*coeff'
            恢复原始的X

    默认:true(中心化)

    Input Argument 3
    'Economy' — Indicator for economy size output
    true (default) | false
    解释: 有时候输出的coeff(映射矩阵p-by-p)过大, 而且是没有必要的(因为我们要降维),所以可以只输出coeff(以及score,latent)的前d列,
    d是数据集的自由度,数据集没NAN的时候d=n-1; 具体的解释见matlab.总之如果将看见完整的PCA结果,可以设置为false.
    默认:true ,(默认ture以后对于初次使用matlab这个函数的人非常迷惑).

    Input Argument 4
    'NumComponents' — Number of components requested
    number of variables (default) | scalar integer
    解释:输出指定的components 也就是更为灵活的Economy,但是经过试验发现指定成分数 仅在小于d(自由度)时有效,大于d时无效;
    默认: number of variables ( i.e p,特征数目)

    Input Argument 5
    'Rows' — Action to take for NaN values
    'complete' (default) | 'pairwise' | 'all'
    解释: 此选项是为了智能处理数据集X中含有NAN的情况,
              complete: 计算之前.移除X中含有NAN的行(i.e 样本),计算完成后,含有NAN的行被重新插入到
                         score and tsquared相应的位置中(coeff呢?)
      pairwise :      首先这个选项必须配合 'Argorithm'中 'eig'进行使用.如果没有指定'eig'(默认svd),
                       当指定pairwise时,则会自动切换为eig; 指定为svd,则会发送warning message,
                       然后自动切换为eig;若指定为als, 则会发送warning message然后忽略 'Rows'此选项.
                            成功使用此选项时,若计算协方差(i,j)处值时遇到NAN,则使用X中第i或j列中不含NAN
                       的行此处来计算的协方差值.
        all : 当确定X中无缺失数据,使用'all',则pca会使用X中所有的数据,当遇到NAN时则会自动终止.
    默认:complete

    Input Argument 6
    'Weights' — Observation weights
    ones (default) | row vector
    解释: 基于observations(i.e 样本)的权重pca,有需求的可以自己查查

    Input Argument 7
    'VariableWeights' — Variable weights
    row vector | 'variance'
    解释:基于variables(i.e.features)的权重pca,有需求的自己查
    默认: 无默认值, 也就是默认不使用此选项

    Input Argument 8
    'Coeff0' — Initial value for coefficients
    matrix of random values (default) | p-by-k matrix
    解释: Initial value for the coefficient matrix coeff, 不是太看的懂,但是要配合'Algorithm'中的
             'als'使用
    默认:   p-by-random

    Input Argument 9
    'Score0' — Initial value for scores
    matrix of random values (default) | k-by-m matrix
    解释: Initial value for scores matri score.不是太看的懂,但是要配合'Algorithm'中的 'als'使用
    默认 : n-by-random

    Input Argument 10
    'Options' — Options for iterations
    structure(此用法是个结构体)
    解释:用于迭代的选项,仅配合'Algorithm'中的'als'使用. 因为'als'是使用迭代的方法进行计算的
          对这个不感兴趣, 有兴趣的可以去help一下
              附上help中的使用方法 opt = statset('pca'); opt.MaxIter = 2000; coeff =pca(X,'Options',opt);

    Output Argument 1
    coeff : 主成分系数 应该就是协方差矩阵的特征向量矩阵(也就是映射矩阵).
               完整输出的情况下是一个p-by-p 的matrix.每一列都是一个特征向量.按对应的特征值
               的大小,从大到小进行排列.
    Output Argument 2
    score: 进行旋转(也就是利用映射矩阵coeff进行)后的结果i.e. score = X * coeff.  n-by-p matrix
              这里有个坑 如果你使用pca时使用的是默认的中心化(i.e 不对'Centered'设置'false'),
              拿X *coeff 和score对比的时候, 记得把X中心化后再乘以coeff,之后再和score对比....;
              同样如果pca使用的是默认值, 恢复的X = score * coeff' (注意转置)是中心化后的数据

    Output Argument 3
    latent: 主成分方差 也就是各特征向量对应的特征值,从大到小进行排列

    Output Argument 4
    tsquared :层次不够 无法解释......

    Output Argument 5
    explained : 每一个主成分所贡献的比例,可以更直观的选择所需要降维的维数了,不用再用特征值去求了

    Output Argument 6
    mu: X 按列的均值,当前仅当 'Centered'置于'true'(默认值)时才会返回此变量
     

     


    [pc,score,latent,tsquare] = pca(feature);%我们这里需要他的pc和latent值做分析

    feature是被降维的特征,每一行是一个特征,列数代表总的特征个数,比如一个图片的HOG特征是96维,总共有8000个HOG特征,那么feature的维度是8000×96,我们的目标就是将其降维(假设将96维降到50维,)那么我们期望的降维后feature就变成了我们需要的feature_after_PCA:8000×50

    latent用来计算降维后取多少维度能够达到自己需要的精度, 
    通过下面的代码运行结果可以得到取pc中对应每一维度对原始数据的精度:
     

    cumsum(latent)./sum(latent)
        0.2763
        0.3954
        0.8765
        0.8854
        0.8931
        0.8995
        0.9055
        0.9111
        0.9808
        0.9819
        0.9828
        0.9838
        0.9846
        0.9854
        0.9862
        0.9869
        0.9876
        0.9883
        0.9999
        1.0000
    ---------------------

    结果应该是有96维,但是太长,这里随机删减了一部分,我们可以看到只去取第一维的话和原始数据的准确度只有27%,很低,取全部的维度最后的精度就是100%,如果我们觉得精度达到90%就能接受的话我们就只需要取精度为90%对应的维度,这里假设第50维的精度是90%. 
    因此我们需要取pc中的1:50列来做最后的变换矩阵:
     

    tran=pc(:,1:50);

    因此我们最终的feature降维后的矩阵feature_after_PCA就通过下式计算:

    feature= bsxfun(@minus,feature,mean(feature,1));
    feature_after_PCA= feature*tran;

    至此我们PCA降维完成.这里需要人工介入的地方就是选取多少维度来确定和原始数据的精度问题.

    补充:上面计算feature_after_PCA的方法是正确的,但是pca函数其实已经给出了所有的转换后矩阵表示,也就是输出的score项,因此在确定需要降维到50维度以后,只需要取score中对应的列就能得到feature_after_PCA:
     

    feature_after_PCA=score(:,1:50);

     

    展开全文
  • 1.PCA函数的输入与输出参数 2.PCA函数的使用方法 1.PCA函数的输入与输出参数 function [coeff, score, latent, tsquared, explained, mu] = pca(x,varargin) 输入参数: X,数据集,假设样本的个数为N,每个...

     

    目录

    1.PCA函数的输入与输出参数

    2.PCA函数的使用方法

    参考文献:


    1.PCA函数的输入与输出参数

    function [coeff, score, latent, tsquared, explained, mu] = pca(x,varargin)

    输入参数:

    X,数据集,假设样本的个数为N,每个样本的特征个数为P,则 X是N×P的矩阵。

    输出参数:

    COEFF,返回N×P数据矩阵X的主成分系数。X的行对应于观测值,列对应于变量。每列系数包含一个主成分的系数。各列按主成分方差(latent)降序排列。默认情况下,PCA将数据居中并使用奇异值分解算法。对于非默认选项,请使用名称/值对参数。

    SCORE,返回主成分得分,它是X在主成分空间中的表示。score的行对应观察值,列对应主成分。中心数据可以用SCORE*COEFF'重建。

    LATENT,返回每个主成分方差,即X的协方差矩阵的特征值,特征值从大到小进行排序。

    TSQUARED,返回X中每个观测值的Hotelling T平方统计值。PCA使用所有主分量计算TSQUARED(在整个空间中计算),即使请求的组件较少(请参见下面的“NumComponents”选项)。对于缩小空间中的TSQUARED,使用MAHAL(SCORE,SCORE)。

    EXPLAINED,返回一个向量,其中包含每个主成分方差占总方差的百分比。

    MU,“Centered”设置为true时返回估计的平均值MU;设置为false时返回所有零。

    2.PCA函数的使用方法

    clc;
    clear;
    load feature;
    [coeff, score, latent, tsquared, explained, mu]=pca(feature);
    a=cumsum(latent)./sum(latent);   % 计算特征的累计贡献率
    % explained和latent均可用来计算降维后取多少维度能够达到自己需要的精度,且效果等价。
    % explained=100*latent./sum(latent); 
    idx=find(a>0.9);     % 将特征的累计贡献率不小于0.9的维数作为PCA降维后特征的个数
    k=idx(1);
    Feature=score(:,1:k);   % 取转换后的矩阵score的前k列为PCA降维后特征

    参考文献:

    [1]matlab 自带pca函数

    [2]MATLAB帮助文档

     

    展开全文
  • 整理了各位博主的伪代码,并写成matlab程序,然后自己利用matlab自带pca函数进行计算,两种方法进行比较,程序只需要导入自己数据就能运行。
  • matlabpca函数说明

    2021-04-18 03:52:11
    PCAmatlab中的实现举例以下资料来自matlab的help,翻译和注解部分由笔者添加:(重点部分添加了翻译!)princomp-----函数名称Principal component analysis (PCA) on dataSyntax------函数调用语法[COEFF,SCORE] = ...

    PCA在matlab中的实现举例

    以下资料来自matlab的help,翻译和注解部分由笔者添加:(重点部分添加了翻译!)

    princomp-----函数名称

    Principal component analysis (PCA) on data

    Syntax------函数调用语法

    [COEFF,SCORE] = princomp(X)

    [COEFF,SCORE,latent] = princomp(X)

    [COEFF,SCORE,latent,tsquare] = princomp(X)

    [...] = princomp(X,'econ')

    Description -----函数描述

    COEFF = princomp(X)

    performs principal components analysis (PCA) on the n-by-p data matrix X, and returns the principal component coefficients, also known as loadings. Rows of X correspond to observations, columns to variables. COEFF is a p-by-p matrix, each column containing coefficients for one principal component. The columns are in order of decreasing component variance.

    在n行p列的数据集X上做主成分分析。返回主成分系数。X的每行表示一个样本的观测值,每一列表示特征变量。COEFF是一个p行p列的矩阵,每一列包含一个主成分的系数,列是按主成分变量递减顺序排列。(按照这个翻译很难理解,其实COEFF是X矩阵所对应的协方差阵V的所有特征向量组成的矩阵,即变换矩阵或称投影矩阵,COEFF每列对应一个特征值的特征向量,列的排列顺序是按特征值的大小递减排序,后面有具体例子解释,见

    说明1

    )

    princomp centers X by subtracting off column means, but does not rescale the columns of X. To perform principal components analysis with standardized variables, that is, based on correlations, use princomp(zscore(X)). To perform principal components analysis directly on a covariance or correlation matrix, use pcacov.

    计算PCA的时候,MATLAB自动对列进行了去均值的操作,但是并不对数据进行规格化,如果要规格化的话,用princomp(zscore(X))。另外,如果直接有现成的协方差阵,用函数pcacov来计算。

    [COEFF,SCORE] = princomp(X)

    returns SCORE, the principal component scores; that is, the representation of X in the principal component space. Rows of SCORE correspond to observations, columns to components.

    返回的SCORE是对主分的打分,也就是说原X矩阵在主成分空间的表示。SCORE每行对应样本观测值,每列对应一个主成份(变量),它的行和列的数目和X的行列数目相同。

    [COEFF,SCORE,latent] = princomp(X)

    returns latent, a vector containing the eigenvalues of the covariance matrix of X.

    返回的latent是一个向量,它是X所对应的协方差矩阵的特征值向量。

    [COEFF,SCORE,latent,tsquare] = princomp(X)

    returns tsquare, which contains Hotelling's T2 statistic for each data point.

    返回的tsquare,是表示对每个样本点Hotelling的T方统计量(我也不很清楚是什么东东)。

    The scores are the data formed by transforming the original data into the space of the principal components. The values of the vector latent are the variance of the columns of SCORE. Hotelling's T2 is a measure of the multivariate distance of each observation from the center of the data set.

    所得的分(scores)表示由原数据X转变到主成分空间所得到的数据。latent向量的值表示SCORE矩阵每列的方差(见

    说明2

    )。Hotelling的T方是用来衡量多变量间的距离,这个距离是指样本观测值到数据集中心的距离。

    When n <= p, SCORE(:,n:p) and latent(n:p) are necessarily zero, and the columns of COEFF(:,n:p) define directions that are orthogonal to X.

    [...] = princomp(X,'econ')

    returns only the elements of latent that are not necessarily zero, and the corresponding columns of COEFF and SCORE, that is, when n <= p, only the first n-1. This can be significantly faster when p is much larger than n.

    当维数p超过样本个数n的时候,用[...] = princomp(X,'econ')来计算,这样会显著提高计算速度

    Examples--举例

    (上面说了那么多废话,看了还不一定懂,还不如举例容易理解,下面样本数据集为ingredients,这个数据集是matlab自带的)

    Compute principal components for the ingredients data in the Hald data set, and the variance accounted for by each component.

    load hald; %载入matlab内部数据

    [pc,score,latent,tsquare] = princomp(ingredients); %调用pca分析函数

    ingredients,score,pc,latent,tsquare %显示得到的结果

    ingredients =

    7 26 6 60

    1 29 15 52

    11 56 8 20

    11 31 8 47

    7 52 6 33

    11 55 9 22

    3 71 17 6

    1 31 22 44

    2 54 18 22

    21 47 4 26

    1 40 23 34

    11 66 9 12

    10 68 8 12

    score =

    36.8218 -6.8709 -4.5909 0.3967

    29.6073 4.6109 -2.2476 -0.3958

    -12.9818 -4.2049 0.9022 -1.1261

    23.7147 -6.6341 1.8547 -0.3786

    -0.5532 -4.4617 -6.0874 0.1424

    -10.8125 -3.6466 0.9130 -0.1350

    -32.5882 8.9798 -1.6063 0.0818

    22.6064 10.7259 3.2365 0.3243

    -9.2626 8.9854 -0.0169 -0.5437

    -3.2840 -14.1573 7.0465 0.3405

    9.2200 12.3861 3.4283 0.4352

    -25.5849 -2.7817 -0.3867 0.4468

    -26.9032 -2.9310 -2.4455 0.4116

    pc =

    -0.0678 -0.6460 0.5673 0.5062

    -0.6785 -0.0200 -0.5440 0.4933

    0.0290 0.7553 0.4036 0.5156

    0.7309 -0.1085 -0.4684 0.4844

    latent =

    517.7969

    67.4964

    12.4054

    0.2372

    tsquare =

    5.6803

    3.0758

    6.0002

    2.6198

    3.3681

    0.5668

    3.4818

    3.9794

    2.6086

    7.4818

    4.1830

    2.2327

    2.7216

    %下面我们来做一个验证

    %下面为计算ingredients协方差矩阵:

    cov_ingredients=cov(ingredients)

    cov_ingredients =

    34.6026 20.9231 -31.0513 -24.1667

    20.9231 242.1410 -13.8782 -253.4167

    -31.0513 -13.8782 41.0256 3.1667

    -24.1667 -253.4167 3.1667 280.1667

    %下面为计算ingredients所对应的协方差矩阵(也就是cov_ingredients矩阵)的特征值和特征

    %向量,下面的矩阵V为特征向量,D为特征值(对比上面的latent)组成的对角线矩阵

    [V,D] = eig(cov_ingredients)

    V =

    0.5062 0.5673 0.6460 -0.0678

    0.4933 -0.5440 0.0200 -0.6785

    0.5156 0.4036 -0.7553 0.0290

    0.4844 -0.4684 0.1085 0.7309

    D =

    0.2372 0 0 0

    0 12.4054 0 0

    0 0 67.4964 0

    0 0 0 517.7969

    %

    说明1

    :对比一下矩阵V和矩阵pc,现在很容易明白为什么COEFF是按列递减顺序排列的

    % 了!(V中第三列与pc中倒数第三列差个负号,学过线性代数的人都知道这没问题)

    %下面再验证一下说明2

    diag(cov(score))

    ans =

    517.7969

    67.4964

    12.4054

    0.2372

    %

    说明2

    :以上结果显示latent确实表示SCORE矩阵每列的方差,517.7969表示第一列方差

    下面做图表示结果:

    上面说了半天还没有达到我们终极想要的,其实我们要的是由函数[pc,score,latent,tsquare] = princomp(ingredients)它所产生的pc和latent。由latent可以算出降维后的空间所能表示原空间的程度,只要这个累积的值大于95%就行了。

    展开全文
  • 整理了各位博主的伪代码,利用matlab自带pca函数进行计算,两种方法进行比较,程序只需要导入自己数据就能运行。
  • MATLAB pca函数使用指南

    千次阅读 2020-05-24 20:44:03
    因为pca在各个学科都有使用,每个学科对于名词的叫法都不太一样,使用的目的都不太一样,我就是单纯的想使用降维,发现matlab函数的pca函数的输入参数除了数据集X还有10个....弄了一段时间才明白....这里分享一下.有错误...
  • Matlab PCA 算法

    2021-04-24 13:06:43
    Matlab 自带PCA函数形式为[mappedX, mapping] = pca(X, no_dims)自己编写PCA函数的步骤%第一步:输入样本矩阵%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%data=rand(10,8)+randn(10,8)+ones(10,8);%现对其进行pca降维%%...
  • matlab实现PCA

    千次阅读 2019-04-23 18:54:45
    principal component analysis(PCA) 主成分分析法是一种数学变换的方法, 它把给定的一组相关变量通过线性变换转成另一组不相关的变量,这些新的变量按照方差依次递减的顺序排列。在数学变换中保持变量的总方差不变...
  • matlab pca函数的使用方法

    万次阅读 多人点赞 2017-01-14 10:23:47
     因为pca在各个学科都有使用,每个学科对于名词的叫法都不太一样,使用的目的都不太一样,我就是单纯的想使用降维,发现matlab函数的pca函数的输入参数除了数据集X还有10个....弄了一段时间才明白....这里分享一下.有...
  • Matlab自带PCA分析

    万次阅读 2014-03-11 16:05:35
    PCA的原理就是将原来的样本数据投影到一个新的空间中,相当于我们在矩阵分析里面学习的将一组矩阵映射到另外的坐标系下。通过一个转换坐标,也可以理解成把一组坐标转换到另外一组坐标系下,但是在新的坐标系下,...
  • 降维算法PCAmatlab平台下的使用demo,采用自带函数,注释详细。
  • matlab自带函数就不必怀疑。princomp:principal componet analysis (PCA).[COEFF,SCORE,latent,tsquare]=princomp(X);参数:%%%%%%%%%%%%%%%%%%INPUT: X是数据:n*p,其中n代表样本个数,p代表特征维数%%%%%%%%...
  • %调用matla画图 上图是通过自带函数绘制,当贡献率累加至95%,以后的维数会不在显示,最多只显示10维。 下面用自己编写的表示: 之前的错误认识: 1.认为主成分分析中latent显示的贡献值是原始数据的,其实是加工后...
  • PCA基本流程:1、训练集矩阵算协方差矩阵A;2、算协方差矩阵特征值与特征向量;3、按特征值的大小排列特征矩阵,得B,对应的特征值(按从大到小排列)组成向量a;4、A*B得到去关联的新矩阵C,A与C的对应位置物理意义相同...
  • 没有经过去中心化处理的样本直接调用pca函数会对样本去中心化吗?求解答</p>
  • princomp函数未来被废弃,系统推荐使用pca函数。 X是n行P列的。n是数据样本个数,p是特征数。 (1) COEFF   is a   p -by- p   matrix, each column containing coefficients for one principal component. The...
  • PCA的原理及MATLAB实现

    2021-04-18 06:05:56
    关于PCA原理可以直接参考下面的文章深入理解PCAPCA是经常用来减少数据集的维数,同时保留数据集中对方差贡献最大的特征来达到简化数据集的目的。PCA的原理就是将原来的样本数据投影到一个新的空间中,相当于我们在...
  • 1.PCA函数的输入与输出参数 2.PCA函数的使用方法 参考文献: 1.PCA函数的输入与输出参数 function [coeff, score, latent, tsquared, explained, mu] = pca(x,varargin) 输入参数: X,数据集,假设样本的...
  • 主成分分析(PCA)及其MATLAB的实现方法

    万次阅读 多人点赞 2020-02-23 13:39:59
    PCA的目的 假设现在有这样一个情景:现在要统计并可视化分析男大学生体测成绩,如果只参考立定跳远和1000m成绩两项指标,我们可以以立定跳远成绩作为xxx轴,1000m成绩作为yyy轴做出散点图,每个点代表一个学生;若...
  • matlab 用于核pca(KPCA)的库函数

    热门讨论 2012-11-23 09:13:41
    包含各种matlab 用于KPCA的库函数,一般的matlab安装包里没有自带

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 743
精华内容 297
关键字:

matlab2019怎么导入自带的pca函数

matlab 订阅