精华内容
下载资源
问答
  • Pca,Kpca,TSNE降维非线性数据的效果展示与理论解释
    2021-10-30 22:12:27

    Pca,Kpca,TSNE降维非线性数据的效果展示与理论解释

    前言

    本文主要介绍运用机器学习中常见的降维技术对数据提取主成分后并观察降维效果。我们将会利用随机数据集并结合不同降维技术来比较它们之间的效果。降维技术可以说非常常见的有Pca、Kpca、TSNE、LDA、NMF、神经网络自编码技术等,也是各有各的特点,比较深入且工业上不怎么通用的有密度敏感鲁棒模糊核主成分分析算法(DRF-Kpca)等等,有兴趣的朋友可以查查此类相关文章。这篇文章主要先介绍Pca、Kpca、TSNE这三种方法。
    在这里插入图片描述
    岁月如云,匪我思存,写作不易,望路过的朋友们点赞收藏加关注哈,在此表示感谢!

    一:几类降维技术的介绍

    由于本篇是应用篇,主要会设计算法介绍与流程,以及实验结果,过多的降维原理不会细致展开。

    • PCA概括

    我们主要引用一下百度百科的简洁明了的概括内容。

    PCA(principal components analysis)即主成分分析技术,又称主分量分析。主成分分析也称主分量分析,旨在利用降维的思想,把多指标转化为少数几个综合指标。
    在统计学中,主成分分析PCA是一种简化数据集的技术。它是一个线性变换。这个变换把数据变换到一个新的坐标系统中,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推。主成分分析经常用于减少数据集的维数,同时保持数据集的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。

    • Kpca概括

    常见核函数的介绍

    核函数 k k k 简单来说是通过内积运算把低维数据映射到高维数据,即 k ( x , y ) = < φ ( x ) , φ ( y ) > k(x,y)=<\varphi(x),\varphi(y)> k(x,y)=<φ(x),φ(y)> ,其中 x , y x,y x,y 是低维的输入向量, φ \varphi φ 为低维到高维的映射, < ⋅ , ⋅ > <\cdot,\cdot> <,> 为内积运算。通过升维操作,我们可以很好解决低维的“非线性”问题,最后再降维到我们需要的维度。

    现在工程算法上核函数的介绍一般都直接给出个表达式,但是真正基于数学角度触发,核函数很多定义都要加上一些必要的限制,比如“可微、连续、对称、有界、泛函空间”等等(其实很多机器学习(深度学习)算法的真正底层逻辑成立是要很多条件限制才行得通的),由于这里不是存粹数学探讨,我们还是简单概括下。

    1. 线性核函数

    k ( x , y ) = x T y + c , c ≥ 0 k(x,y)=x^Ty+c , c\geq0 k(x,y)=xTy+cc0 ,主要解决线性可分问题。通过表达式我们可以发现,此时的Kpca降维其实跟传统的Pca没啥区别。

    1. 多项式核函数

    k ( x , y ) = ( a x T y + c ) d , a > 0 , c ≥ 0 , d ≥ 1 k(x,y)=(ax^Ty+c)^d , a>0,c\geq0,d\geq1 k(x,y)=(axTy+c)da>0,c0,d1 ,这类核函数比较复杂,可以解决非线性问题。

    1. 高斯核函数

    k ( x , y ) = − γ ∣ ∣ x − y ∣ ∣ 2 , γ ( g a m m a ) = 1 2 σ 2 k(x,y)=-\gamma\left|| x-y \right||^2 , \gamma(gamma)=\frac{1}{2\sigma^2} k(x,y)=γxy2γ(gamma)=2σ21 高斯核函数的运用是比较广泛的,这里我们重点说明下几个重要参数。

    ∣ ∣ ⋅ , ⋅ ∣ ∣ 2 ||\cdot,\cdot||^2 ,2 :两个向量的2-范数运算,

    gamma:gamma越大,高斯分布越窄。gamma越小,高斯分布越宽。gamma相当于调整模型的复杂度,gamma值越小模型复杂度越低,gamma值越高,模型复杂度越大。换句话说当gamma非常大,模型容易过拟合,模型对数据比较敏感,因为分布曲线尖端太“狭窄”,每一个样本点几乎占有独立的分布曲线,分布曲线很难再含有其他样本了,反之亦然。但gamma参数是高斯核的“独特”之处,太小体现不出来高斯核特点,太大容易过拟合,所以在实际运用中(如降维、分类等),可以多次实验发现规律并解决问题。

    这里我们我们借鉴下百度图库给的图形,因为 σ \sigma σ γ \gamma γ 属于倒数关系,可以从图1看出 σ \sigma σ 越大, γ \gamma γ 越小,分布越宽。

    在这里插入图片描述

    图1
    • TSNE概括
    1. SNE算法

    SNE的思想是基于在高维空间相似的点,或者离得近的点,那么映射到低维希望也是离得近的点,那整个过程就自然实现了降维。我们也有表达“离得近”的公式来描述,那就是高斯条件概率: p j ∣ i ( x ) = e x p ( − ∣ ∣ x i − x j ∣ ∣ 2 / 2 σ i 2 ) ∑ k ≠ i e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / 2 σ i 2 ) p_{j|i}(x)=\frac{exp(-||x_i-x_j||^2/2\sigma_i^2)}{\sum_{k\ne i}{exp(-||x_i-x_k||^2/2\sigma_i^2)}} pji(x)=k=iexp(xixk2/2σi2)exp(xixj2/2σi2) ,这里点 x j x_j xj 越靠近 x i x_i xi 时,概率越大;同理降维到低维的数据点 y j , y i y_j,y_i yj,yi 的离得远近也是用高斯概率判定。但是,怎么评判两高斯概率分布相似?我们可以用数理统计的 K L KL KL 散度距离(Kullback-Leibler Divergence)判定,最终的目的就是想把 K L KL KL 的值降到最低。

    K L KL KL 散度主要基于理论分布拟合真实分布时产生的信息损耗的期望值,我们用公式表示如下:

    D K L ( p ∣ ∣ q ) = E [ l o g 2 p ( x ) − l o g 2 ( q ( x ) ) ] D_{KL}(p||q)=E[log_2p(x)-log_2(q(x))] DKL(pq)=E[log2p(x)log2(q(x))]

    那么对应的离散形式可以表示为 :

    D K L ( p ∣ ∣ q ) = ∑ i = 1 N p ( x i ) ( l o g 2 p ( x i ) − l o g 2 q ( x i ) ) D_{KL}(p||q)=\sum_{i=1}^{N}{p(x_i)}(log_2p(x_i)-log_2q(x_i)) DKL(pq)=i=1Np(xi)(log2p(xi)log2q(xi))

    对应的连续形式可以表示为:

    D K L ( p ∣ ∣ q ) = ∫ − ∞ + ∞ p ( x ) ( l o g 2 p ( x ) − l o g 2 q ( x ) ) d x D_{KL}(p||q)=\int_{-\infty}^{+\infty}p(x)(log_2p(x)-log_2q(x))dx DKL(pq)=+p(x)(log2p(x)log2q(x))dx

    这里的 p ( x i ) , q ( x i ) p(x_i),q(x_i) p(xi),q(xi) 就是表示真实和理论上的每个随机变量的概率值。

    对于SNE算法,那么当 D = p j ∣ i ( x ) D=p_{j|i}(x) D=pji(x) 时,我们希望存在

    D ′ = p j ∣ i ( y ) D^{'}=p_{j|i}(y) D=pji(y)使得

    m i n D K L ( D ∣ ∣ D ′ ) = m i n ∑ i j [ D i j l o g 2 D i j D i j ′ − D i j + D i j ′ ] minD_{KL}(D||D^{'})=min\sum_{ij}\left[ {D_{ij}log_2\frac{D_{ij}}{D_{ij}^{'}}-D_{ij}+D_{ij}^{'}} \right] minDKL(DD)=minij[Dijlog2DijDijDij+Dij] 存在。

    那么每个 y i y_i yi 变量的更新如何处理,这就很自然想到梯度下降算法(这里先不展开叙述了)。

    1. TSNE是SNE的升级版

    升级主要一是在梯度下降算法中的优化,二是在低维空间用T分布代替高斯分布。

    1. TSNE非常适用于高维数据降维到2维或者3维,进行可视化。

    二:主要介绍Kpca的实现步骤

    (由于Kpca是Pca的推广,我们略过Pca)

    • 我们先获得一个 m × n m\times n m×n 的数据矩阵( m m m 是样本个数, n n n 是每个样本的特征),
    • 选择相应核函数计算核矩阵,这里的核矩阵计算主要是根据公式 k ( x i , x j ) = < φ ( x i ) , φ ( x j ) > k(x_i,x_j)=<\varphi(x_i),\varphi(x_j)> k(xi,xj)=<φ(xi),φ(xj)> 计算,其中 0 ≤ i , j ≤ m 0\leq i,j\leq m 0i,jm
    • 根据相应公式计算中心化后的核矩阵 k l = k − l ∗ k / m − k ∗ l / m + l ∗ k ∗ l / ( m ∗ m ) kl =k-l\ast k/m-k*l/m+l*k*l/(m*m) kl=klk/mkl/m+lkl/(mm) , l l l m × m m\times m m×m 的单位矩阵,
    • 再计算 k l kl kl 的特征值 λ 1 , λ 2 , . . . λ n \lambda_1,\lambda_2,... \lambda_n λ1,λ2,...λn 和对应的特征向量 ν 1 , ν 2 , . . . ν n \nu_1,\nu_2,...\nu_n ν1,ν2,...νn ,对特征值按照降序排序展开,与此同时特征向量也随之改变,通过斯密特正交化方法得到单位正交化特征向量 α i , α 2 , . . . α n \alpha_i,\alpha_2,...\alpha_n αi,α2,...αn ,确定主成分的个数 p = ∑ i = 1 p λ i / ∑ i = 1 n λ i ≥ β p=\sum_{i=1}^{p}{\lambda_i}/\sum_{i=1}^{n}{\lambda_i}\geq\beta p=i=1pλi/i=1nλiβ ,其中 β \beta β 的取值根据实际情况来定,一般不小于0.8,
    • 最后我们计算主成分矩阵值: P = k l ∗ α P=kl\ast\alpha P=klα ,即为降维后的数据。

    三:实验结果

    Kpca的实现是比较成熟而且步骤不是很复杂,我们不再自己编写,主要是调用相关模块来进行实验。

    import matplotlib.pyplot as plt
    import numpy as np
    from mpl_toolkits.mplot3d import Axes3D
    from sklearn.decomposition import PCA
    from sklearn.decomposition import KernelPCA
    from sklearn.manifold import TSNE
    
    
    def circle():
        fig = plt.figure()
    
        ax = fig.add_subplot(111, projection='3d')
        a1 = 1
        r1 = 2.5
        x1 = np.arange(-a1 + 0.5, a1 + 0.5, 0.05)
        y1 = np.arange(-a1, a1, 0.05)
        hah = 10
        np.random.seed(hah)
        z1 = np.sqrt(r1 ** 2 - x1 ** 2 - y1 ** 2) + np.random.uniform(0,1,len(x1))
    
        Z1 = list(z1) + list(-z1)
        Y1 = list(y1) + list(y1)
        X1 = list(x1) + list(x1)
        ax.scatter(X1, Y1, Z1)
    
      
        a2 = 1
        r2 = 1.75
        x2 = np.arange(-a2, a2, 0.05)
        y2 = np.arange(-a2, a2, 0.05)
        np.random.seed(hah)
        z2 = np.sqrt(r2 ** 2 - x2 ** 2 - y2 ** 2) + np.random.uniform(0,1,len(x1))
    
        Z2 = list(z2) + list(-z2)
        Y2 = list(y2) + list(y2)
        X2 = list(x2) + list(x2)
        ax.scatter(X2, Y2, Z2)
        ax.set_xlabel('X Label')
        ax.set_ylabel('Y Label')
        ax.set_zlabel('Z Label')
        plt.show()
    
        X = X1 + X2
        Y = Y1 + Y2
        Z = Z1 + Z2
        dn = np.array([X, Y, Z]).T
    
        pca = PCA(n_components=2)
        x_pca = pca.fit_transform(dn)
        print('pca信息值:', pca.explained_variance_ratio_)
    
        plt.figure()
        plt.scatter(x_pca[:, 0][:int(len(X1))], x_pca[:, 1][:int(len(X1))], color='red', marker='^', alpha=0.5)
        plt.scatter(x_pca[:, 0][int(len(X2)):], x_pca[:, 1][int(len(X2)):], color='blue', marker='o', alpha=0.5)
        plt.xlabel('PC1')
        plt.ylabel('PC2')
        plt.show()
    
        kpca = KernelPCA(n_components=2, kernel='rbf', gamma=20, degree=5)  ###kernel : {'linear', 'poly',  'rbf', 'sigmoid', 'cosine', 'precomputed'}, default='linear'
        x_kpca = kpca.fit_transform(dn)
        explained_variance = np.var(x_kpca, axis=0)
        explained_variance_ratio = explained_variance / np.sum(explained_variance)
        print('kpca信息值:', explained_variance_ratio)
    
        plt.figure()
        plt.scatter(x_kpca[:, 0][:int(len(X1))], x_kpca[:, 1][:int(len(X1))], color='red', marker='^', alpha=0.5)
        plt.scatter(x_kpca[:, 0][int(len(X2)):], x_kpca[:, 1][int(len(X2)):], color='blue', marker='o', alpha=0.5)
        plt.xlabel('PC1')
        plt.ylabel('PC2')
        plt.show()
    
        tsne = TSNE(n_components=2,metric='euclidean')
        x_tsne = tsne.fit_transform(dn)
        explained_variance = np.var(x_tsne, axis=0)
        explained_variance_ratio = explained_variance / np.sum(explained_variance)
        print('tsne信息值:', explained_variance_ratio)
    
        plt.figure()
        plt.scatter(x_tsne[:, 0][:int(len(X1))], x_tsne[:, 1][:int(len(X1))], color='red', marker='^', alpha=0.5)
        plt.scatter(x_tsne[:, 0][int(len(X2)):], x_tsne[:, 1][int(len(X2)):], color='blue', marker='o', alpha=0.5)
        plt.xlabel('PC1')
        plt.ylabel('PC2')
        plt.show()
    circle()
    

    在这里插入图片描述

    图1

    在这里插入图片描述

    图2:Pca

    在这里插入图片描述

    图3:Kpca(gamma=20)

    在这里插入图片描述

    图4:Kpca(gamma=10)

    在这里插入图片描述

    图5:Kpca(gamma=1)

    在这里插入图片描述

    图6:TSNE

    从上图3、图4我们可以看出,基于Kpca算法的降维,当核函数取高斯核时,随着gamma的增大,这时候的Kpca算法的特色就显示的淋淋尽致。降维至低维的数据很明显是线性可分的。TSNE得出的结果让低维数据分布的更加集中,但明显线性是不可分的。一般Pca降维非线性数据的效果似乎只是对高维数据做了下在低维空间的投影。

    四:总结

    这篇文章主要讲述了3种降维技术对非线性数据的降维处理,我们可以感受到Kpca算法在选择恰当的核函数时,会表现出明显的算法特色。普通的Pca技术在处理非线性问题方面,是很难做出相应的优化选择,所以在实际工业中,Kpca算法对于非线性数据的处理,无论是理论上的解释还是实际效果,不失为一种可靠的选择。

    在这里插入图片描述

    更多相关内容
  • KPCA代码及其实例详解,关于非线性降维的新手入门教学
  • 核主元分析方法进行数据降维,还可用于故障诊断
  • 核主元分析KPCA的降维特征提取以及故障检测应用-data.rar 本帖最后由 iqiukp 于 2018-11-9 15:02 编辑  核主元分析(Kernel principal component analysis ,KPCA)在降维、特征提取以及故障检测中的应用。...
  • 非线性特征降维,根据kpca核心思想编写而成,可用于分类、识别等
  • kpca程序KPCA 这是内核主成分分析(KPCA)及其应用程序(代码+描述)的实现。 这是文件结构: KPCA |-- src |-- myarrow.m |-- mygenerate_data.m |-- mykernel.m |-- myKPCA.m |-- myPCA.m |-- PCAKPCA_test.m |-- ...
  • KPCA实现数据降维,数据部分可以自己改,用的是TE故障中的一组数据
  • 用于人脸识别的内核 PCA
  • matlab KPCA函数

    2018-10-21 10:57:29
    KPCA(经典的MATLAB程序),发现大家都在找,发上来大家共享一下。
  • KPCA程序及SPE计算T2计算,包括数据,等,训练数据和测试数据
  • 核主成分分析法,使用python...此程序中既包含了手工制作的KPCA全过程,也有直接从sklearn调用包直接实现。里面有详细的代码注释,核分块注释,可以截取自己需要的部分。直接套用的话,使用最前面一段代码替换数据即可
  • KPCA用于故障检测

    2019-05-04 16:57:56
    KPCA算法为一种核学习算法,可用于具有非线性特性的故障检测中。其主要思路为:首先通过一个未知的非线性映射讲原始低维空间中的非线性数据映射到特征空间变成线性可分的高维数据,然后利用PCA方法在高维特征空间...
  • KPCA算法代码实现,MATLAB实现。kernel核函数为poly和gaussion。
  • 使用KPCA算法对人脸图像进行非线性变换的特征提取,得到特征向量实现人脸分类,可下载运行
  • 多光谱遥感影像特征提取是保证图像分类结果精度的关键,文中介绍了多光谱遥感影像特征提取的两种主要方法。通过实验证明:KPCA较PCA具有更好的数据压缩和降维效果,影像特征提取效果优势明显。
  • 核主元分析KPCA的降维特征提取以及故障检测应用-KPCA_v2.zip 本帖最后由 iqiukp 于 2018-11-9 15:02 编辑  核主元分析(Kernel principal component analysis ,KPCA)在降维、特征提取以及故障检测中的应用。...
  • KPCA实现。。。。

    2018-12-21 13:05:33
    有一个讲解kpca的个PPT,和一个用MATLAB实现的kpca的程序
  • kPCA-master_KPCA_KPCAmatlab_

    2021-09-29 17:53:30
    kpca用于信号降低维度,特征提取等领域,具有优良效果
  • 内核主成分分析 (KPCA) 使用 KPCA 进行降维、故障检测和故障诊断的 MATLAB 代码 2.2 版,2021 年 5 月 14 日 电子邮件:iqiukp@outlook.com 主要特点 用于训练和测试 KPCA 模型的易于使用的 API 支持降维...
  • KPCA故障诊断matlab实现

    2018-06-23 13:36:18
    使用MATALB编写的KPCA故障诊断程序,输入训练数据和测试数据即可。带有SPE和T2统计
  • KPCA matlab实现

    2018-04-12 18:29:23
    基于核PCA的matlab算法.................................................................................
  • KPCA的MATLAB代码

    2015-05-15 09:44:03
    KPCA的MATLAB代码,用于特征提取十分有效。
  • kpca_embeddings

    2021-05-02 02:21:17
    kpca_embeddings Python实现 您可以训练KPCA嵌入来完成各种任务,例如从UCI Machine Learning Repository的或德语动词分类中对DNA序列进行结点识别。 确切的超参数组合可以在参考文件中找到。 我们还通过KPCA嵌入...
  • 核主成分分析_KPCA

    2017-07-04 22:23:05
    核主成分分析
  • KPCA的R语言程序

    2015-12-01 15:46:01
    用来进行基于核数的主成分分析法计算,R语言版本,封装
  • KPCA人脸识别程序

    2018-05-04 15:46:32
    KPCA实现的人脸识别的程序,经过调试可以运行的,放心使用
  • KPCA_SPC_T2.m

    2020-04-14 11:35:14
    KPCA的matlab程序,同时包含SPC和T²检验,核函数的宽度,主元贡献率,主元个数等一些参数需要自己根据研究数据进行调整。
  • pca和kpca算法

    2018-03-13 09:13:50
    该程序包含kpca和pca两个程序,其中的主要程序片段携程函数模块,希望对大家能有所帮助
  • KPCA MATLAB程序,提供4种核函数,根据贡献率自动选取特征向量
  • PCA和KPCA的Matlab和C++程序,其中核函数使用的是高斯核函数 PCA和KPCA的Matlab和C++程序,其中核函数使用的是高斯核函数

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,123
精华内容 849
关键字:

kpca图

友情链接: 44.zip