精华内容
下载资源
问答
  • PCA图像压缩入门——学习笔记1.从协方差矩阵开始新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、...

    1.从协方差矩阵开始——协防差矩阵和样本阵的关系

    定义1: 协方差
    Cov(X,Y)=E{[XE(X)][YE(Y)]}=E(XY)2E(X)E(Y)+E(X)E(Y)=E(XY)E(X)E(Y)(X,Y) =E\{[X-E(X)][Y-E(Y)]\} \\ =E(XY)-2E(X)E(Y)+E(X)E(Y)\\ =E(XY)-E(X)E(Y)

    意义: 度量各个维度偏离其均值的程度。协方差的值如果为正值,则说明两者是正相关的(从协方差可以引出“相关系数”的定义),结果为负值就说明负相关的,如果为0,也是就是统计上说的“相互独立”。
    引自:https://blog.csdn.net/GoodShot/article/details/79940438。可以参考其中配图。

    注1: Cov(X,X)=E(X2)(E(X))2=D(X)(X,X) =E(X^2)-(E(X))^2=D(X) 样本X自身协方差为其方差。

    定义2: 样本方差
    σ2=i=1m(XiXˉ)2m1\sigma^2 = \frac{\sum^{m}_{i=1}{(X_i-\bar{X})^2}}{m-1}, 其中Xˉ=i=1mXim\bar{X} = \frac{\sum^{m}_{i=1}X_i}{m}, 为{Xi}\{X_i\}的均值。

    定义3: 样本协方差
    Cov(X,Y)=i=1m(XiXˉ)(YiYˉ)m1(X,Y) =\frac{\sum^{m}_{i=1}(X_i-\bar{X})(Y_i-\bar{Y})}{m-1}

    显然有Cov(X,Y)(X,Y) = Cov(Y,X)(Y,X)
    那么,对于只有两个特征XXYY的情况(即XXYY两个维度),可以有协方差矩阵
    CX,Y=(Cov(X,X)Cov(X,Y)Cov(Y,X)Cov(Y,Y))\bold{C}_{X,Y}= \begin{pmatrix} \rm{Cov(X,X)} & \rm{Cov(X,Y)} \\ \rm{Cov(Y,X)} & \rm{Cov(Y,Y)} \end{pmatrix}

    对于有三个特征XXYYZZ的情况(即XXYYZZ三个维度),有协方差矩阵
    CX,Y,Z=(Cov(X,X)Cov(X,Y)Cov(X,Z)Cov(Y,X)Cov(Y,Y)Cov(Y,Z)Cov(Z,X)Cov(Z,Y)Cov(Z,Z))\bold{C}_{X,Y,Z}= \begin{pmatrix} \rm{Cov(X,X)} & \rm{Cov(X,Y)} & \rm{Cov(X,Z)}\\ \rm{Cov(Y,X)} & \rm{Cov(Y,Y)} & \rm{Cov(Y,Z)}\\ \rm{Cov(Z,X)} & \rm{Cov(Z,Y)} & \rm{Cov(Z,Z)} \end{pmatrix}

    注2: 可见,协方差矩阵C\bold{C}是一个实对称矩阵。关于实对称矩阵的主要性质如下:
    1.实对称矩阵A的不同特征值对应的特征向量是正交的。
    2.实对称矩阵A的特征值都是实数,特征向量都是实向量。
    3.n阶实对称矩阵A必可对角化,且相似对角阵上的元素即为矩阵本身特征值。
    4.若λ0具有k重特征值 必有k个线性无关的特征向量,或者说必有秩r(λ0E-A)=n-k,其中E为单位矩阵。

    故,协方差矩阵C\bold{C}可以正交分解为对角阵。

    定理 1: 有实对称矩阵ARn×n\bold{A} \in \mathbb{R^{n\times n}},则一定存在正交阵U\bold{U},使UTAU=U1AU=Λ=\bold{U}^{\rm{T}} \bold{A} \bold{U} = \bold{U}^{-1} \bold{A} \bold{U} = \Lambda=diag(λ1,λ2,,λn)(\lambda_1,\lambda_2,\dots,\lambda_n)

    电脑莫名其妙重启了。。。继续撸。。。
    以下以X=(x1,x2,,xm)mNX=(x_1,x_2,\dots,x_m),m\in\mathbb{N}为例,进行说明。其中,xix_iXX的第ii个特征。

    注3: 在我们处理数据XX以前,我们要做的是数据中心化,这是后续工作的前提。
    XX为有nn个特征,mm个样本的数据
    X=(x1,1μ1x1,2μ2x1,nμnx2,1μ1x2,2μ2x2,nμnxm,1μ1xm,2μ2xm,nμn)X = \begin{pmatrix} x_{1,1}-\mu_1 &x_{1,2}-\mu_2 &\dots &x_{1,n}-\mu_n \\ x_{2,1}-\mu_1 &x_{2,2}-\mu_2 &\dots &x_{2,n}-\mu_n \\ \dots &\dots &\dots &\dots\\ x_{m,1}-\mu_1 &x_{m,2}-\mu_2 &\dots &x_{m,n}-\mu_n \end{pmatrix},其中μi\mu_i为第ii个特征的均值。

    此时x,jx_{\bullet,j}为0均值样本,μj=0\mu_j = 0

    对于XX中的任意两个特征xix_ixjx_j,记
    ci,j=c_{i,j}=Cov(xi,xj)=E{[xiμi][xjμj]}=E{xixj}=1ml=1mx,ix,j=1mX,iTX,j(x_i,x_j) \\ =E\{[x_i-\mu_i][x_j-\mu_j]\}=E\{x_ix_j\}\\ =\frac{1}{m}\sum^{m}_{l=1}x_{\bullet,i}x_{\bullet,j}\\ =\frac{1}{m}X^{\rm{T}}_{\bullet,i}X_{\bullet,j}
    其中,X,iX_{\bullet,i}是样本Xm×nX_{m\times n}中的第ii列。

    所以,样本XX的协方差矩阵
    CX\rm{C_X}={ci,j}=1mXTX=\{c_{i,j}\}=\frac{1}{m}X^{\rm{T}}X (注:如果是无偏估计,则为1m1\frac{1}{m-1})。

    扣题:上式就是协方差阵和样本阵的关系。

    2.求映射阵Qn×k\bold{Q}_{n \times k}使由nn维降维至kk

    设目标为降维的矩阵为Y\bold{Y},映射阵为Q\bold{Q},有关系
    Ym×n=Xm×nQn×n\bold{Y}_{m\times n}=\bold{X}_{m\times n}\bold{Q}_{n\times n}

    降维的话,Ym×k=Xm×nQn×k\bold{Y}_{m\times k}=\bold{X}_{m\times n}\bold{Q}_{n\times k}

    降维的原则: 新的到的Y\bold{Y}方差尽可能协方差尽可能

    根据上一节最后一个公式,设CY\rm{C_Y}为样本YY的协方差矩阵,有

    CY\rm{C_Y}=1mYTY=1m(XQ)TXQ=1mQTXTXQ=QTCXQ=\frac{1}{m}\bold{Y}^{\rm{T}}\bold{Y}\\ =\frac{1}{m}(\bold{XQ})^{\rm{T}} \bold{XQ}\\ =\frac{1}{m}\bold{Q}^{\rm{T}}\bold{X}^{\rm{T}}\bold{XQ}\\ =\bold{Q}^{\rm{T}} \rm{C_X} \bold{Q}

    考虑到定理1中是对称矩阵可以正交分解,故令Q=U\bold{Q}=\bold{U},有

    CY\rm{C_Y}=QTCXQ=UTCXU=Λ==\bold{Q}^{\rm{T}} \rm{C_X} \bold{Q} =\bold{U}^{\rm{T}} \rm{C_X} \bold{U}\\ =\Lambda=diag(λ1,λ2,,λn)(\lambda_1,\lambda_2,\dots,\lambda_n)

    在此,我们不妨假设λ1λ2λn\lambda_1 \geq \lambda_2\geq \dots \geq \lambda_n,对应的特征向量为u1,u2,,unu_1,u_2,\dots,u_n。即,λi\lambda_i已经排列好大小。则取前kk个特征向量,组成Qn×k=(u1,u2,,uk)\bold{Q}_{n\times k} = (u_1,u_2,\dots,u_k),其中0<k<n0 < k<n

    扣题:Ym×k=Xm×nQn×k\bold{Y}_{m\times k}=\bold{X}_{m\times n}\bold{Q}_{n\times k}实现了数据的降维。

    3.数据的复原(重构)

    Xm×n=Ym×k(Qn×k)T\bold{X'}_{m\times n}=\bold{Y}_{m\times k}(\bold{Q}_{n \times k})^{\rm{T}} 即是数据的重构!
    注意:Y=XQY=XQ得出X=YQTX=YQ^{T}的结论是错误的。应为X=YQTX'=YQ^{T}XX为中心化之后的原始数据,XX‘才是重构后的复原数据。

    以下图为例,进行说明。图片引自https://blog.csdn.net/hustqb/article/details/78394058
    在这里插入图片描述
    X中心化后得到X=((1,2),(1.0),(0,0),(0,1),(2,1))5×2X = ((-1,-2),(-1.0),(0,0),(0,1),(2,1))_{5 \times 2} 5个样本,红色星号。降维后得到Y=(y1,y2,y3,y4,y5)5×1TY=(y1,y2,y3,y4,y5)_{5 \times 1}^T 5个数,是1维数据,不是点。蓝色斜线为u1=(u1,1,u1,2)Tu_1=(u_{1,1},u_{1,2})^TCXC_X最大特征值λ1\lambda_1对应的特征向量。Q=(u1)2×1Q = (u_1)_{2\times 1}
    此时的Y,已经损失了部分信息——损失了绿色的截线长度的信息,YQTYQ^T也不能重新获得这些信息。YQTYQ^T仅仅是将Y={y1,y2,y3,y4,y5}这5个数映射在方向u1=(u1,1,u1,2)Tu_1=(u_{1,1},u_{1,2})^T上,形成排列在一条线上的5个点——XX',而不是原先成散布状的原始数据XX

    展开全文
  • PCA图像压缩和重建

    2020-09-09 11:01:20
    PCA进行图像压缩参考https://blog.csdn.net/program_developer/article/details/80632779 在新坐标系中得到了新坐标,即原文章中的 之后需要映射回原始坐标系,进行图像的重建

    PCA进行图像压缩参考https://blog.csdn.net/program_developer/article/details/80632779

    在新坐标系中得到了新坐标,即原文章中的
    在这里插入图片描述
    之后需要映射回原始坐标系,进行图像的重建
    在这里插入图片描述
    计算过程为:
    recdata=Y((1/2)(1/2))+meanrec_{data} = Y * \begin{pmatrix} (1/\sqrt{2}) \\ (1/\sqrt{2}) \end{pmatrix} + mean
    mean这个例子里为0

    展开全文
  • PCA,即:主成成分分析,回想SVD分解图像压缩实例。我们保留最大的几个奇异值,就可以压缩数据的同时,还能最大化减少信息的损失。同理,通过多种线性变换,我们可以将原始数据降维,往往原始数据对应的协方差矩阵...

    说明:实际上EVD(特征分解)是SVD的一种特殊情况;逆是伪逆的特殊情况?,这在最小二乘当中有应用。

    在“8点法”求解本质矩阵当中会有SVD分解,在3D到3D空间转换中,算法icp有SVD解法。SVD作为一种分解矩阵的方法,

    有着广泛应用。

    一、特征分解(手写word截图)

    5efc0961c1861f77d72bca6056780f60.png

    c829490cdae8081afb0264d86a519f7f.png

    1 %%Matlab验证代码2 a=[1 2 3;2 1 3;3 3 6]3 [x,y]=eig(a) %%x矩阵每一列代表 lamda123 对应的特征向量4 diag(y) %% y矩阵的对角元素是对应特征值lamda123

    二、 SVD分解和图像压缩

    55e11dfca0d6d379014fce47a5d4af26.png

    1465eafbdcf81f29fc855c3570c7e068.png

    03b06fc45efc84d62d6e31b630d0be81.png

    b750d7f6b9b0a76397f1feb472b3b7bd.png

    1 A = [1 2; 0 0; 0 0]2 [U, S, V] = svd(A);

    265c720e041eb6b1e8ed9b6f76463e32.png

    和手动计算结果一致。

    图像压缩实例

    1 #include

    2 using namespacestd;3

    4 #include

    5 using namespacecv;6

    7 void printMat(Mat&matrix)8 {9 for (int j = 0; j < matrix.rows; j++)10 {11 for (int i = 0; i < matrix.cols; i++)12 {13 cout << matrix.ptr(j)[i] << ",";14 }15 cout <

    20 //input: image : ...21 //radio : 压缩比率22 //ouput: Mat : 压缩后的灰度图

    23 Mat compressJPG(Mat image, doubleradio)24 {25 SVD svd_1st(image, SVD::MODIFY_A);26 Mat W_ =Mat::zeros(svd_1st.w.rows, svd_1st.w.rows, CV_64F);27

    28 //压缩比例:radio = m*n/(r*(m+n+1))29 //r = m*n / (radio*(m+n+1))

    30 double m = double(image.rows);31 double n = double(image.cols);32 double r = m * n/(radio*(m + n + 1));33 int r_ = int(r);34 if (r_ >=svd_1st.w.rows)35 {36 cout << "errors in setting radio!" <

    40 for (int i = 0; i < r_; i++)41 {42 W_.ptr(i)[i] = svd_1st.w.ptr(i)[0];43 }44

    45 Mat image_compressed = svd_1st.u * W_ *svd_1st.vt;46 image_compressed.convertTo(image_compressed, CV_8U);47 returnimage_compressed;48 }49

    50 intmain()51 {52 //<1> test SVD API of opencv

    53 Mat A = (Mat_(3, 2) << 1, 2, 0, 0, 0, 0);54 cout << "原矩阵 A =" <

    59 cout << "奇异值矩阵 W =" <

    76 //*******************************************************************************************************77 //压缩图像例子78 //假设原矩阵 A 是 m x n;奇异值个数为r(也就是rank(A) = r)79 //那么压缩比例:radio = m*n/(r*(m+n+1))80 //分母分别是 r*m : 左奇异矩阵元素个数; r*n : 右奇异矩阵元素个数; r: 奇异值矩阵元素个数

    81

    82 Mat image = imread("2.jpg", 0);83 imshow("image", image);84 image.convertTo(image, CV_64F);85

    86 Mat image_1st = compressJPG(image, 0.6);87 if (!image_1st.empty())88 {89 imshow("radio = 0.6", image_1st);90 imwrite("image_1st.jpg", image_1st);91 }92

    93 Mat image_2st = compressJPG(image, 1);94 if (!image_2st.empty())95 {96 imshow("radio = 1", image_2st);97 imwrite("image_2st.jpg", image_2st);98 }99

    100 Mat image_3st = compressJPG(image, 3);101 if (!image_3st.empty())102 {103 imshow("radio = 3", image_3st);104 imwrite("image_3st.jpg", image_3st);105 }106

    107 Mat image_4st = compressJPG(image, 5);108 if (!image_4st.empty())109 {110 imshow("radio = 5", image_4st);111 imwrite("image_4st.jpg", image_4st);112 }113

    114 Mat image_5st = compressJPG(image, 7);115 if (!image_5st.empty())116 {117 imshow("radio = 7", image_5st);118 imwrite("image_5st.jpg", image_5st);119 }120

    121 Mat image_6st = compressJPG(image, 9);122 if (!image_6st.empty())123 {124 imshow("radio = 9", image_6st);125 imwrite("image_6st.jpg", image_6st);126 }127

    128 Mat image_7st = compressJPG(image, 20);129 if (!image_7st.empty())130 {131 imshow("radio = 20", image_7st);132 imwrite("image_7st.jpg", image_7st);133 }134

    135 waitKey(0);136 return 1;137 }

    930e3b561166f8e241dd795468fb6163.png 这里比率设置不正确,返回一个提示!

    2bd3c0f44353b44e3ed7620a9182099b.png

    可以看到压缩比率越大,图像失真越明显。

    499f33671e35d6cd7f95fde5fa1f8052.png

    可以看到压缩比率增大,图像体积变小,别小看一张图减小十几kb大小,对于视频网站来讲.......毋庸置疑,开源节流!

    楼主不是专门研究图像压缩的,就不深究了,据说微信能将一张由iphone拍的照片(10Mb左右)压缩到几百kb,图像依然很清晰!

    三、PCA降维

    参考:https://zhuanlan.zhihu.com/p/21580949

    给出PCA的一般数学步骤:

    顺便给出一道例题:

    50627064706adcab14d96cff974f19e5.png

    依据上述步骤,我们来解一道题

    5654a06b8e90fa6bc266ae88023c2f15.png

    投影后如图;

    (顺便:如果用 特征值 2/5 对应的特征向量作为矩阵P;

    7223ab63f97d1e771dcc86890924d8f4.png

    可以看到,如果映射到一维数轴上,是有信息丢失的。你看下图,是主城成分,二维数据映射到一维空间,)

    f61d3eb9e9ac154651eba555fd03238b.png

    工程上,数据维度太高,其中又有许多冗余成分;这样处理起来效率不高。这时候,我们可以对数据经行降维。

    PCA,即:主成成分分析,回想SVD分解图像压缩实例。我们保留最大的几个奇异值,就可以压缩数据的同时,还能最大化减少信息的损失。同理,通过多种线性变换,我们可以将原始数据降维,往往原始数据对应的协方差矩阵的多个奇异值/特征值中,将最大的几个值所对应的特征向量作为线性变换矩阵,可以起到降维作用。如上图,我们便是将最大特征值 2 对应的特征向量 作为矩阵P(P是什么?看上述PCA计算步骤)。你可以看看参考链接,另外为了更好理解PCA,你可以去看看有关PCA的应用,参考:

    https://blog.csdn.net/HLBoy_happy/article/details/77146012

    展开全文
  • PCA图像压缩的matlab实现

    千次阅读 2016-04-03 21:08:40
    PCAfunction pca_test clear;close all;% read image img=imread(path); figure(1),subplot(121),imshow(img,[]);title('Original Image'); [M N] = size(img); f = double(img); bs = 16; %图像块尺寸 p = 3

    PCA

    function pca_test
    clear;close all;
    
    img=imread('lena.png');           
    figure(1),subplot(121),imshow(img,[]);title('Original Image');
    [M N] = size(img);
    f = double(img);
    bs = 16;   %图像块尺寸
    p = 30;    %保留的维数
    
    % PCA图像压缩
    g = im2col(f, [bs bs], 'distinct'); %将图像块转换成列矢量表示
    g_m = mean(g')'*ones(1,size(g,2));   %计算每个块的灰度均值
    g = g - g_m;
    [E D]=fun_pca(g);
    E_proj = E(:,1:p);   %取最大的p个特征值所对应的特征矢量进行降维
    g_proj = g'*E_proj;  %从bs*bs维映射到p维
    
    % 恢复图像
    g_rec = g_proj*E_proj';
    s = g_rec' + g_m;
    s = col2im(s, [bs bs], [M N], 'distinct');
    figure(1),subplot(122),imshow(s,[]);title('Recovered Image');
    
    function [E,D] = fun_pca(X)
    % do PCA on image patches
    % INPUT variables:
    % X                  matrix with image patches as columns
    % OUTPUT variables:
    % E                  特征矢量(第一列对应最大特征值)
    % D                  特征值(按下降顺序排列)
    % Calculate the eigenvalues and eigenvectors
    covarianceMatrix = X*X'/size(X,2);
    [E, D] = eig(covarianceMatrix);
    % Sort the eigenvalues and recompute matrices
    [d_out,order] = sort(diag(D),'descend');
    E = E(:,order);
    d = diag(D); 
    D = diag(d(order));
    
    展开全文
  • 压缩后还原的图像   压缩前跟压缩后的对比     ex7modules.py  import numpy as np import matplotlib.pyplot as plt def findClosestCentroids(X,centroids): K=centroids.shape[0] ...
  • 基于PCA图像压缩实现

    千次阅读 2020-08-02 17:50:10
    基于PCA的图像压缩实现 ...本文通过调研PCA图像压缩的相关工作,认为当前方法依赖于整个数据集,压缩效率低、占据内存量大的问题,本文提出一种分片PCA(P-PCA)图像压缩算法,旨在通过对图像进行分片,并
  • PCA用于图像压缩

    2013-05-31 18:39:58
    利用主成分分析(PCA)对图像进行压缩的程序,有详细注释,给想学习PCA的人提供参考。
  • matlab上利用主成分分析(PCA)对图像进行压缩的程序,有详细注释,给想学习PCA的人提供参考。
  • R语言PCA图像压缩

    2018-05-05 23:03:35
    R语言实现PCA及其在图像压缩的应用R语言实现PCA及其在图像压缩的应用
  • 基于PCA图像压缩Matlab代码
  • 热图像均值matlab代码PCA-图像压缩 图像压缩 要开始使用 PCA 进行图像压缩,可以将图像表示为像素颜色值矩阵,其中 X 和 Y 的值是图像中像素的坐标,f(x,y) 是相应的灰度级别。 在图像压缩中,样本是图像矩阵的列。 ...
  • PCA图像压缩

    千次阅读 2015-08-10 10:27:08
    PCA图像压缩2015-8-10奇异值分解在图像压缩处理中有着重要的应用。假定一副图像有 n×nn\times n 个像素,如果将这 n2n^2 个数据一起传送,往往会显得数据量太大。因此,我们希望能够改为传送另外一些比较少的数据...
  • 一旦有了这些,我们就将每个矢量变换到这个新的,更紧凑的空间,从而有效地执行图像压缩。 为了再次看到图像,我们需要解压缩新的低维数据。 这是通过对新数据执行反向转换来完成的。 根据我们选择的主要组件的...
  • 可以在matlab上运行,利用主成分分析,实现对图像压缩与重建,文件里包含代码和示例图片
  • PCA图像压缩与去噪

    千次阅读 2019-08-22 15:12:41
    奇异值分解在图像压缩处理中有着重要的应用。假定一副图像有 n×n个像素,如果将这 n*n个数据一起传送,往往会显得数据量太大。因此,我们希望能够改为传送另外一些比较少的数据,并且在接收端还能够利用这些传送的...
  • PCA图像压缩和图像识别的区别

    千次阅读 2018-03-28 21:38:56
    PCA(principle component analysis)主要用于数据降维,消除数据间的相关性,通过协方差求得特征空间,将数据集映射到特征空间,可实现图像压缩和提取特征的目的。1、图像压缩一幅图像可通过像素堆叠的方式来用高维...
  • 基于PCA图像压缩及人脸识别算法一、PCA基础知识二、 算法分析与MATLAB仿真原始数据图像的处理功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合...
  • 本文在基于人脸图像压缩与重建方法基础上,研究了、人脸图像 压缩与重建方法,并在此基础上了实现了一种改进的方法,即对图像训练样本进行 可选择的行、列均等的划分,得到一些尺寸大小都一样的子图像,然后将所有...
  • 高光谱图像压缩算法需要考虑如何利用空间和光谱的相关性。 在本文中,我们首先使用主成分分析(PCA)来消除光谱相关性。 然后使用方向提升小波变换(DLWT)去除空间相关性。 实验结果表明,与基于DWT的咨询算法相比...
  • 示例:利用PCA进行图像压缩 采用的数据集是MNIST手写数据集,选择划分后的训练集样本作为数据集,共有60000个手写数据,每个样本的形状为(28,28)。 import numpy as np import matplotlib.pyplot as plt from ...
  • PCA图像降维应用

    2015-10-29 22:16:48
    压缩包包含一个Qt工程,利用Opencv2自带的PCA类对图像数据进行降维,并显示出样本图像和协方差矩阵特征图像
  • PCA实例与其在图像压缩中的应用

    千次阅读 2015-05-01 11:41:25
    主成份变换,PCA,K-L变换,卡洛南-洛伊变换,霍特林变换,...PCA是机器学习和数据挖掘中的一种方法,也是数字图像处理中用来进行编码和压缩的一种技术。本文介绍相关理论推导。本文将通过实例和图像中的应用来介绍PCA
  • 在Python中使用K-Means聚类和PCA主成分分析进行图像压缩 各位读者好,在这片文章中我们尝试使用sklearn库比较k-means聚类算法和主成分分析(PCA)在图像压缩上的实现和结果。 压缩图像的效果通过占用的减少比例以及...
  • PCA理论与传统PCA图像融合

    千次阅读 2015-10-09 14:26:02
    PCA的应用范围PCA最大方差与最小误差推导奇异值与PCApca图像融合  1.PCA应用范围 压缩数据;可视化,高维数据无法可视化,降到2维或3维便于可视化;降低overfitting,用高维数据进行supervised learning,模型...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,613
精华内容 3,045
关键字:

pca图像压缩