精华内容
下载资源
问答
  • 本文介绍了MDS、Isomap等三种主要的高维数据降维方法,同时对这些降维方法的作用进行了探讨。
  • 降维技术旨在将高维数据映射到更低维的数据空间上以寻求数据紧凑表示,该技术有利于对数据做进一步处理。随着多媒体技术和计算机技术的高速发展,数据维度呈爆炸性增长,使得机器学习、图像处理等研究领域的数据分析变...
  • 高维数据通过 PCA算法进行数据降维,便于对数据的进一步处理。
  • 一种基于MDS的高维数据降维与可视化方法 ,任珂,马志强,降维与可视化是分析高维数据的有效手段。传统数据降维技术计算效率低,准确性较差,无法帮助分析者更深入理解和认识数据。因此,
  • 分类介绍了目前具有代表性的数据降维方法,重点阐述了一种新的数据降维方法 - 压缩感 知,在此基础上,分析了各种数据降维算法的优缺点,并对数据降维研究中存在的问题进行了剖析.
  • 高维数据降维——主成分分析

    千次阅读 2019-06-24 23:41:00
    一、 高维数据降维  高维数据降维是指采取某种映射方法,降低随机变量的数量。例如将数据点从高维空间映射到低维空间中,从而实现维度减少。降维分为特征选择和特征提取两类,前者是从含有冗余信息以及噪声信息的...

    一、 高维数据降维

      高维数据降维是指采取某种映射方法,降低随机变量的数量。例如将数据点从高维空间映射到低维空间中,从而实现维度减少。降维分为特征选择和特征提取两类,前者是从含有冗余信息以及噪声信息的数据中找出主要变量,后者是去掉原来数据,生成新的变量,可以寻找数据内部的本质结构特征。

      简要来说,就是通过对输入的原始数据的特征学习,得到一个映射函数,实现将输入样本映射后到低维空间中,其原始数据的特征并没有明显损失。通常新空间的维度要小于原空间的维度。目前大部分降维算法是处理向量形式的数据。

    二、 主成分分析过程

      主成分分析(Principal Component Analysis,PCA)是一种最常用的线性降维方法,目标是通过某种线性投影,将高维数据映射到低维空间中,并期望在所投影的维度上数据的方差最大。PCA的降维是指经过正交变换后,形成新的特征集合,然后从中选择比较重要的一部分子特征集合,从而实现降维。这种方式并非是在原始特征中选择,所以PCA极大程度保留了原有的样本特征。

      关于PCA降维原理,请参考http://blog.codinglabs.org/articles/pca-tutorial.html

     

    PCA降维的一般过程:

    设有 m 条 n 维的数据。

    ①    将原始数据按列组成n行m列矩阵X

    ②    计算矩阵 X 中每个特征属性(n 维)的平均向量M(平均值);

    ③    将X的每一行(代表一个属性字段)进行零均值化,即减去这一行的均值M;

    ④    求出协方差矩阵

    ⑤    求出协方差矩阵的特征值及对应的特征向量;

    ⑥    将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k(k<n)行组成基向量P;

    ⑦    Y=PX即为降维到k维后的数据;

     

      PCA目标是求出样本数据的协方差矩阵的特征值和特征向量,而协方差矩阵的特征向量的方向就是PCA需要投影的方向。使用样本数据向低维投影后,能尽可能的表征原始的数据。协方差矩阵可以用散布矩阵代替,即协方差矩阵*(n-1),其中n为样本的数量。

    三、 案例演示

    1. 基于sklearn(python语言下的机器学习库)和numpy随机生成2个类别共40个三维空间点的样本。
    mu_vec1 = np.array([0,0,0])
    cov_mat1 = np.array([[1,0,0],[0,1,0],[0,0,1]])
    class1_sample = np.random.multivariate_normal(mu_vec1, cov_mat1, 20).T
    
    mu_vec2 = np.array([1,1,1])
    cov_mat2 = np.array([[1,0,0],[0,1,0],[0,0,1]])
    class2_sample = np.random.multivariate_normal(mu_vec2, cov_mat2, 20).T

      其中,multivariate_normal()生成多元正态样本分布,参数分别为设定的样本均值向量,协方差矩阵,每个类别数量为20个。生成的两个类别class1_sample和class2_sample为三维样本数据,即样本数据的特征数量为3个。可视化结果如下:

      2. 下面利用PCA将其投射到二维空间,查看其分布情况。计算40个点在3个维度上的平均向量,首先将两个类别的数据合并到all_samples中,然后计算平均向量:

    all_samples = np.concatenate((class1_sample, class2_sample), axis=1)
    mean_x = np.mean(all_samples[0,:])
    mean_y = np.mean(all_samples[1,:])
    mean_z = np.mean(all_samples[2,:])

      计算平均向量mean_x,mean_y,mean_z,然后基于平均向量计算散布矩阵,方法如下:,其中m为计算的平均向量;所有向量与m的差值经过点积并求和后即可获得散布矩阵的值:

    scatter_matrix = np.zeros((3,3))
    for i in range(all_samples.shape[1]):
        scatter_matrix += (all_samples[:,i].reshape(3,1) - mean_vector).dot((all_samples[:,i].reshape(3,1) - mean_vector).T)

      应用numpy库内置的np.linalg.eig(scatter_matrix)方法计算特征向量和特征值。此外,也可以利用numpy.cov()方法计算协方差矩阵求解:

    # 由散布矩阵得到特征向量和特征值
    eig_val_sc, eig_vec_sc = np.linalg.eig(scatter_matrix)
    
    # 由协方差矩阵得到特征向量和特征值
    eig_val_cov, eig_vec_cov = np.linalg.eig(cov_mat)

      得到3个维度的特征值(eig_vec_sc)和3个维度的特征向量(eig_val_sc)。以平均向量为起点,绘出特征向量,可以看到特征向量的方向,这个方向确定了要进行转化的新特征空间的坐标系。结果如下:

      3. 按照特征值和特征向量进行配对,并按照特征值的大小从高到低进行排序,由于需要将三维空间投射到二维空间中,选择前两个特征值-特征向量作为坐标,并构建2*3的特征向量矩阵W 。原来空间的样本通过与此矩阵相乘,使用公式:的方法将所有样本转换到新的空间中。结果如下:

     

      4.结论:

      这种变换并没有改变各样本之间的关系,只是应用了新的坐标系。在本例中是将三维空间降维到二维空间,如果有一个n 维的数据,想要降到k维,则取前k个特征值对应的特征向量即可。

      缺点:当数据量和数据维度非常大的时候,用协方差矩阵的方法解PCA会变得很低效。解决办法是使用奇异值分解(SVD)。

    转载于:https://www.cnblogs.com/wyr-123-wky/p/11080408.html

    展开全文
  • 基于它的“能量聚集特性”和变换的保距特性,把它用作高维数据降维的预处理手段,主要作用有两个:(1)大幅度降低后续降维的处理维数,减少运算量;(2)降低噪声对数据结构的影响。文中的试验结果表明,对高维数据,尤其是...
  • 前言现实世界中存在着大量的复杂事物及现象,人们希望揭示隐藏在这些纷繁芜杂的表象下的事物和现象的客观规律。...大量出现的高维数据不仅提供了极其丰富、详细的信息,而且对数据分析中的变量选择、多元建模带来了挑战。
  • 高维数据降维显示方法 PCA t-SNE

    高维数据降维显示方法

    PCA

    t-SNE

    展开全文
  • 阐述了用降维算法和构建索引结构来解决高维数据降维问题。以数据对象变异最大方向的投影作为特定数据对象集的主成份,将聚类分析引入高校数据资源的预处理环节,实现了数据对象集合的聚类归约。给出应用实例,为深入...
  • 本文有比较多的转载其他研究人员的博客https://blog.csdn.net/u014772862/article/details/52335970作为一名机器学习的科研人员,之前在推荐系统的开发和工作中...降维方法一般分为线性降维方法和非线性降维方法,如...

    本文有比较多的转载其他研究人员的博客

    https://blog.csdn.net/u014772862/article/details/52335970

    作为一名机器学习的科研人员,之前在推荐系统的开发和工作中,学习了PCA(主成分分析)与SVD(奇异值分解)方面的技术,但是还没有写过总结性的文章,此次,本人总结一些关于降维技术的调研,希望大家多多指教。

    降维方法一般分为线性降维方法和非线性降维方法,如下图所示:


    在机器学习中,说到降维,其目的是进行特征选择和特征提取,注意特征选择和特征提取这二者的不同之处: 
    (1)特征选择:选择重要特征子集,并删除其余特征。 
    (2)特征提取:由原始特征形成较少的新特征。 
    在特征提取中,我们要找到k个新的维度的集合,这些维度是原来k个维度的组合,这个方法可以是监督的,也可以是非监督的, 
    其中,pca是unsupervised的降维方法,lda(线性判别分析)是supervised的方法,这两个都是线性投影来做降维的。 

    另外,因子分析,和多维标定(mds)也是unsupervised的线性降为方法。

    降维的目的
    1.减少预测变量的个数;
    2.确保这些变量是相互独立的;
    3.提供一个框架来解释结果。

    本文中,列出了几种常见的降维方法,包括Lasso,PCA,小波分析,LDA(线性判别分析),  SVD(奇异值分解),拉普拉斯特征映射,SparseAutoEncoder(稀疏编码),局部线性嵌入LLE,等距映射Isomap等。

    (一)LASSO:通过参数缩减实现降维
    LASSO(Least absolute shrinkage and selection operator) 是一种压缩估计,通过在cost function中构造一个正则化项,从而训练到一个较为精炼的模型,使得压缩一些系数(设定一些系数为零),是一种有偏估计。Lasso 的基本思想:在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化(构造拉格朗日函数解决),从而产生某些严格等于 0 的回归系数,得到可解释的模型。

    (二)PCA:通过提取线性无关组做降维

    PCA(Principal Component Analysis),通过线性变换,将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。 设有m条n维数据,

    1)将原始数据按列组成m行n列矩阵X 
    2)将X的每一列进行零均值化,即减去这一行的均值;
    3)求出协方差矩阵C;
    4)求出协方差矩阵的特征值及对应的特征向量;
    5)将特征向量按对应的特征值大小从左到右排成矩阵,取前k列组成矩阵P(n*k);

    6)Y=XP,即为降维到k维后的数据

    PCA把原先的n个特征用数目更少的k个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的k个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。

    PCA降维过程请参考http://www.cnblogs.com/zhangchaoyang/articles/2222048.html

    (三)聚类分析

    将个体(样品)或者对象(变量)按相似程度(距离远近)划分类别,使得同一类中的元素之间的相似性比其他类的元素的相似性更强,使类间元素的同质性最大化和类间元素的异质性最大化。以K-means举例,Kmeans实现的过程如下:

    (1)随机初始化个聚类中心(cluster centroid) 
    (2)Cluster Assignment: 对于每个数据点,寻找离它最近的聚类中心,将其归入该类;
    (3)Move Centroid: 更新聚类中心的值为所有属于类的数据点的平均值
    (4)重复2、3步直到收敛或者达到最大迭代次数

    (4)小波分析

    小波分析有一些变换的操作降低其他干扰可以看做是降维。 
    http://www.360doc.com/content/15/0613/14/21899328_477836495.shtml

    (5)线性判别(LDA)

    线性判别式分析(Linear Discriminant Analysis),简称为LDA,是模式识别的经典算法。基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。

    LDA与PCA都是常用的降维技术。PCA主要是从特征的协方差角度,去找到比较好的投影方式。LDA更多的是考虑了标注,即希望投影后不同类别之间数据点的距离更大,同一类别的数据点更紧凑。

    详细请参考http://www.cnblogs.com/zhangchaoyang/articles/2644095.html

    (6)拉普拉斯特征映射

    拉普拉斯特征映射将处于流形上的数据,在尽量保留原数据间相似度的情况下,映射到低维下表示。

    这里写图片描述

    求解广义特征向量,取前几个非零最小特值对应的特向,即为原数据在低维下的表示。 
    资料来源于:http://blog.csdn.net/yujianmin1990/article/details/48420483

    展开全文
  • 这是一本关于高维数据如何进行有效降维的数据,书中比较系统的阐述了一些可行性的方法,最关键的是提供了一些关于高维数据降维的一些思想。在大数据时代来临,面临的数据维度已经越来越高,通过数据本身的量化数值...
  • 概述1.1 什么是TSNE1.2 TSNE原理1.2.1入门的原理介绍1.2.2进阶的原理介绍1.2.2.1 高维距离表示1.2.2.2 低维相似度表示1.2.2.3 惩罚函数1.2.2.4 为什么是局部相似性1.2.2.5 为什么选择高斯和t分布2 python实现参考...

    喜欢的话请关注我们的微信公众号~《你好世界炼丹师》。

    • 公众号主要讲统计学,数据科学,机器学习,深度学习,以及一些参加Kaggle竞赛的经验。
    • 公众号内容建议作为课后的一些相关知识的补充,饭后甜点。
    • 此外,为了不过多打扰,公众号每周推送一次,每次4~6篇精选文章。

    微信搜索公众号:你好世界炼丹师。期待您的关注。


    1.概述

    1.1 什么是TSNE

    • TSNE是由T和SNE组成,T分布和随机近邻嵌入(Stochastic neighbor Embedding).
    • TSNE是一种可视化工具,将高位数据降到2-3维,然后画成图。
    • t-SNE是目前效果最好的数据降维和可视化方法
    • t-SNE的缺点是:占用内存大,运行时间长。

    1.2 TSNE原理

    1.2.1入门的原理介绍

    举一个例子,这是一个将二维数据降成一维的任务。我们要怎么实现?


    首先,我们想到的最简单的方法就是舍弃一个维度的特征,将所有点映射到x轴上:

    很明显,结果来看,蓝色和黄色的点交叠在一起,可是他们在二维上明明不属于一类


    TSNE就是计算某一个点到其他所有点的距离,然后映射到t分布上,效果就会好一些。

    1.2.2进阶的原理介绍

    • t-SNE的降维关键:把高纬度的数据点之间的距离转化为高斯分布概率

    1.2.2.1 高维距离表示

    • 如果两个点在高维空间距离越近,那么这个概率值越大。
    • 我们来看下面公式,两个公式的内容一致,只是写法不同。
      P j ∣ i = e − ∣ ∣ x i − x j ∣ ∣ 2 2 σ i 2 ∑ i ≠ k e − ∣ ∣ x i − x k ∣ ∣ 2 2 σ i 2 P_{j|i} = \frac{e^{\frac{-||x_i-x_j||^2}{2\sigma_i^2}}}{\sum_{i\not=k}e^{\frac{-||x_i-x_k||^2}{2\sigma_i^2}}} Pji=i=ke2σi2xixk2e2σi2xixj2
      这个形式的公式,只是明显的展示这是高斯分布概率

    P j ∣ i = e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / ( 2 σ i 2 ) ) ∑ i ≠ k e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / ( 2 σ i 2 ) ) P_{j|i} = \frac{exp(-||x_i-x_k||^2/(2\sigma_i^2))}{\sum_{i\not=k}exp(-||x_i-x_k||^2/(2\sigma_i^2))} Pji=i=kexp(xixk2/(2σi2))exp(xixk2/(2σi2))
    ∣ ∣ x i − x k ∣ ∣ 2 ||x_i-x_k||^2 xixk2是两个点之间的距离;
    距离越大, e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / ( 2 σ i 2 ) ) exp(-||x_i-x_k||^2/(2\sigma_i^2)) exp(xixk2/(2σi2))越小;
    距离越小, e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / ( 2 σ i 2 ) ) exp(-||x_i-x_k||^2/(2\sigma_i^2)) exp(xixk2/(2σi2))越大;
    分母是一个常数,对于一个固定的点 x i x_i xi;


    • 这个算法的创新点 σ i \sigma_i σi对于每一个 x i x_i xi都是不同的,是由事先设定的困惑性影响, σ i \sigma_i σi是自动设定的。

    现在我们能得到 p j ∣ i p_{j|i} pji,然后计算联合分布
    P i j = P j ∣ i + P i ∣ j 2 N P_{ij} = \frac{P_{j|i}+P_{i|j}}{2N} Pij=2NPji+Pij


    • 从上文中,我们用高斯分布概率来表示两个高维点之间的相似性,再次复述一次两个点越相似, p i j p_{ij} pij越大

    1.2.2.2 低维相似度表示

    • 在低纬度中,我们使用t分布来表示相似性。这里不探究为什么使用t分布而不是其他分布,具体内容可以看论文

    Q i j = ( 1 + ∣ ∣ y i − y j ∣ ∣ 2 ) − 1 ∑ k ≠ l ( 1 + ∣ ∣ y k − y l ∣ ∣ 2 ) − 1 Q_{ij} = \frac{(1+||y_i-y_j||^2)^{-1}}{\sum_{k\not=l}(1+||y_k-y_l||^2)^{-1}} Qij=k=l(1+ykyl2)1(1+yiyj2)1
    y i , y j y_i,y_j yi,yj是低纬度的点


    1.2.2.3 惩罚函数

    • 现在我们有方法衡量高纬度和低纬度的点的相似性,我们如何保证高纬度相似度高的点在低纬度相似度也高?
    • t-SNE使用的是KL散度(Kullback-Leibler divergence)
      K L ( P ∣ Q ) = ∑ i ≠ j P i j log ⁡ P i j Q i j KL(P|Q) = \sum_{i\not=j}P_{ij}\log\frac{P_{ij}}{Q_{ij}} KL(PQ)=i=jPijlogQijPij

    1.2.2.4 为什么是局部相似性

    • P i j P_{ij} Pij很大, Q i j Q_{ij} Qij很小(高维空间距离近,低维空间距离远)的惩罚很大,但是高维空间距离远,低维空间距离近的惩罚小。

    1.2.2.5 为什么选择高斯和t分布

    • 降维必然带来信息损失,TSNE保留局部信息必然牺牲全局信息,而因为t分布比 高斯分布更加长尾,可以一定程度减少这种损失。

    2 python实现

    函数参数表:

    • parameters 描述
    • n_components 嵌入空间的维度
    • perpexity 混乱度,表示t-SNE优化过程中考虑邻近点的多少,默认为30,建议取值在5到50之间
    • early_exaggeration 表示嵌入空间簇间距的大小,默认为12,该值越大,可视化后的簇间距越大
    • learning_rate 学习率,表示梯度下降的快慢,默认为200,建议取值在10到1000之间
    • n_iter 迭代次数,默认为1000,自定义设置时应保证大于250
    • min_grad_norm 如果梯度小于该值,则停止优化。默认为1e-7
    • metric 表示向量间距离度量的方式,默认是欧氏距离。如果是precomputed,则输入X是计算好的距离矩阵。也可以是自定义的距离度量函数。
    • init 初始化,默认为random。取值为random为随机初始化,取值为pca为利用PCA进行初始化(常用),取值为numpy数组时必须shape=(n_samples, n_components)
    • verbose 是否打印优化信息,取值0或1,默认为0=>不打印信息。打印的信息为:近邻点数量、耗时、σ
      、KL散度、误差等
    • random_state 随机数种子,整数或RandomState对象
    • method 两种优化方法:barnets_hut和exact。第一种耗时O(NlogN),第二种耗时O(N^2)但是误差小,同时第二种方法不能用于百万级样本
    • angle 当method=barnets_hut时,该参数有用,用于均衡效率与误差,默认值为0.5,该值越大,效率越高&误差越大,否则反之。当该值在0.2-0.8之间时,无变化。
    import numpy as np
    import matplotlib.pyplot as plt
    from sklearn import manifold,datsets
    '''X是特征,不包含target;X_tsne是已经降维之后的特征'''
    tsne = manifold.TSNE(n_components=2, init='pca', random_state=501)
    X_tsne = tsne.fit_transform(X)
    print("Org data dimension is {}. 
          Embedded data dimension is {}".format(X.shape[-1], X_tsne.shape[-1]))
          
      '''嵌入空间可视化'''
    x_min, x_max = X_tsne.min(0), X_tsne.max(0)
    X_norm = (X_tsne - x_min) / (x_max - x_min)  # 归一化
    plt.figure(figsize=(8, 8))
    for i in range(X_norm.shape[0]):
        plt.text(X_norm[i, 0], X_norm[i, 1], str(y[i]), color=plt.cm.Set1(y[i]), 
                 fontdict={'weight': 'bold', 'size': 9})
    plt.xticks([])
    plt.yticks([])
    plt.show()
    

    参考内容

    1. sklearn中tsne可视化
    2. 笔记 | 什么是TSNE
    3. 理解TSNE算法
    展开全文
  • 将节点相似度矩阵,作为深度稀疏自动编码器的输入,并通过不断迭代,作为输出低维特征矩阵。(matlab编写)
  • 为确保高维数据的神经网络分类精度,提出了先降维后分类的方法。采用主成分分析(PCA)法实现高维数据降维。通过分析传统BP算法,提出分两步来更新网络权值的扰动BP学习方法。采用MATLAB对降维分类算法的分类精度和...
  • t-SNE是一种降维方法,PCA主成分分析、LDA等属于线性降维,t-SNE属于非线性降维,是一种流形学习方法(Manifold Learning)。如图所示的曲面上,两点之间的欧式距离为红色虚线所示,蓝色实线为两点之间的测地线距离...
  • 高维数据SVM实现+降维可视化 是更改别人的代码的,使用软间隔最大化,SMO优化算法,t-sne降维可视化,发现数据是否是容易线性可分的。
  • 高维数据,如航天遥感数据、生物数据、网络数据以及金融市场交易数据等, 其处理面临两个问题:一是维数灾难(curses of ...本文提出并研究了高维数据集结构的问题,并对其在降维过 程中的应用进行了广泛而深入的探讨。
  • cust_sale.loc[:,['特征一','特征二','特征三','特征四','特征五']]=min_max_scaler.fit_transform(cust_sale[['特征一','特征二','特征三','特征四','特征五']].values)#数据归一化,按比例映射到(01)区间 ...
  • 特征降维能够有效地提高机器学习的效率,特征子集的搜索过程以及特征评价标准是特征降维的两个 核心问题 。综述国际上关于特征降维的研究成果 ,总结并提出了较完备的特征降维模型定义 ; 通过列举解决特 征降维上重要...
  • 高维数据进行降维的算法

    千次阅读 2019-10-06 16:37:34
    维度灾难:在高维情况下出现的数据样本稀疏,距离计算困难等问题。 缓解维度灾难的一个重要途径就是降维,通过某种数学变换将原始高维属性空间转变成一个低维子空间,在这个子空间中样本密度大幅提高,距离计算也变...
  • cust_sale.loc[:,['特征一','特征二','特征三','特征四','特征五']]=min_max_scaler.fit_transform(cust_sale[['特征一','特征二','特征三','特征四','特征五']].values)#数据归一化,按比例映射到(01)区间 ...
  • 高维信息降维可视化常用算法比较

    千次阅读 2019-07-17 21:08:52
    这里引入了常用降维算法模型原理,对MNIST 784维数据做可视化和结果对比展示,其中的大部分算法可用来减少数据维度,减少特征数,去除噪声干扰信息,压缩数据,降低计算量。公式原理等是引用他人内容,如侵权联系...
  • 点击打开链接
  • *降维的意义:克服维数灾难,获取本质特征,节省存储空间,去除无用噪声,实现数据可视化 强烈推荐几篇博客: https://www.douban.com/note/469279998/ http://bindog.github.io/blog/2016/06/04/f
  • 高维数据特征降维技术学习

    万次阅读 2017-04-14 16:46:03
    原文地址:高维数据特征降维技术学习作者:新技术笔记 特征降维(feature dimension reduction)是一个从初始高维特征集合中选出低维特征集合,以便根据一定的评估准则最优化缩小特征空间的过程,通常是机器学习的...
  • problem下列哪些方法可以用来对高维数据进行降维:A. LASSOB. 主成分分析法C. 聚类分析D. 小波分析法E. 线性判别法F. 拉普拉斯特征映射答案: A B C D E FanalysisLasso(Least absolute shrinkage and selecti...
  • “ 今天阅读 VIS 2019 会议大数据与降维领域的论文《GPGPU Linear Complexity t-SNE Optimization》,作者是Nicola Pezzotti,人工智能...理解数据点在高维空间中的排列方式在探索性数据分析中起着至关重要的作用。...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 17,216
精华内容 6,886
关键字:

高维数据降维