精华内容
下载资源
问答
  • 相似性度量

    2017-09-01 18:39:08
    相似性度量   1 相似性度量种类 相似性度量,通常采样距离来衡量。距离的计算有以下几种: (1)欧式距离 (2)曼哈顿距离。计算曼哈顿街区距离,而不是直线距离。 (3)皮尔森相关系数。衡量线性相关性。...

    相似性度量

     

    1 相似性度量种类

    相似性度量,通常采样距离来衡量。距离的计算有以下几种:

    (1)欧式距离

    (2)曼哈顿距离。计算曼哈顿街区距离,而不是直线距离。

    (3)皮尔森相关系数。衡量线性相关性。斯皮尔曼相关系数,衡量单调相关性。

    (4)Jaccard距离。集合交集除以并集。

    (5)Cos距离。余弦相似度。

    (6)编辑距离。是指两个字串之间,由一个转成另一个所需的最少编辑操作次数。

    (7)汉明距离。两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。例如,10111011001001之间的汉明距离是2

    展开全文
  • 现有的多元时间序列相似性度量方法难以平衡度量准确性和计算效率之间的矛盾。针对该问题,首先,对多元时间序列进行多维分段拟合;然后,选取各分段上序列点的均值作为特征;最后,以特征序列作为输入,利用动态时间...
  • 对于诸多算法而言, 能否与一种合适的相似性度量方法结合应用, 对其挖掘性能有着关键影响. 然而, 至今仍没有统一的度量相似性的方法. 对此, 首先综述了常用的相似性度量方法, 分析了各自的优点与不足; 其次, 讨论了...
  • 当前存在的云模型相似性度量仅局限于单粒度空间,缺乏多粒度云模型的相似性度量的相关研究.因此,文中首先证明知识距离框架的相关性质,并建立知识距离与信息度量、信息粒度之间的联系,在分层递阶粒结构上得到如下结论:...
  • 相似性度量方法介绍

    2018-03-21 11:32:05
    相似性度量的一些方法总结,方便使用,便于操作编写代码
  • 图像相似性度量

    2013-03-06 21:12:32
    可实现不同图像的相似性度量,可作为识别图像的一种依据
  • 网络中的节点相似性度量
  • 相似性度量总结

    万次阅读 2015-12-05 20:14:13
    又机器学习中的相似性度量 、 余弦距离、欧氏距离和杰卡德相似性度量的对比分析 整理而成在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”...

    整理自 《机器学习中的相似性度量》《余弦距离、欧氏距离和杰卡德相似性度量的对比分析》


    在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。本文的目的就是对常用的相似性度量作一个总结。

    本文目录:
    1. 欧氏距离
    2. 曼哈顿距离
    3. 切比雪夫距离
    4. 闵可夫斯基距离
    5. 标准化欧氏距离
    6. 马氏距离
    7. 夹角余弦
    8. 汉明距离
    9. 杰卡德距离 & 杰卡德相似系数
    10. 相关系数 & 相关距离
    11. 信息熵


    1. 欧氏距离(Euclidean Distance)
    欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,如使用用户行为指标分析用户价值的相似度或差异。

    (1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:

    这里写图片描述

    (2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:

    这里写图片描述

    (3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离:

    这里写图片描述
    也可以用表示成向量运算的形式:这里写图片描述

    (4)Matlab计算欧氏距离

    Matlab计算距离主要使用pdist函数。若X是一个M×N的矩阵,则pdist(X)将X矩阵M行的每一行作为一个N维向量,然后计算这M个向量两两间的距离。
    例子:计算向量(0,0)、(1,0)、(0,2)两两间的欧式距离
    X = [0 0 ; 1 0 ; 0 2]
    D = pdist(X,’euclidean’)
    结果: 1.0000 2.0000 2.2361


    2. 曼哈顿距离(Manhattan Distance)
    从名字就可以猜出这种距离的计算方法了。想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。实际驾驶距离就是这个“曼哈顿距离”。而这也是曼哈顿距离名称的来源, 曼哈顿距离也称为城市街区距离(City Block distance)。

    (1)二维平面两点a(x1,y1)与b(x2,y2)间的曼哈顿距离

    这里写图片描述

    (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的曼哈顿距离

    这里写图片描述

    (3) Matlab计算曼哈顿距离

    例子:计算向量(0,0)、(1,0)、(0,2)两两间的曼哈顿距离
    X = [0 0 ; 1 0 ; 0 2]
    D = pdist(X, ‘cityblock’)
    结果:D = 1 2 3


    3. 切比雪夫距离 ( Chebyshev Distance )
    国际象棋玩过么?国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步?自己走走试试。你会发现最少步数总是max( | x2-x1 | , | y2-y1 | ) 步 。有一种类似的一种距离度量方法叫切比雪夫距离。

    (1)二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离

    这里写图片描述

    (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的切比雪夫距离

    这里写图片描述 这个公式的另一种等价形式是 这里写图片描述 看不出两个公式是等价的?提示一下:试试用放缩法和夹逼法则来证明。

    (3)Matlab计算切比雪夫距离

    例子:计算向量(0,0)、(1,0)、(0,2)两两间的切比雪夫距离
    X = [0 0 ; 1 0 ; 0 2]
    D = pdist(X, ‘chebychev’)
    结果:D = 1 2 2


    4. 闵可夫斯基距离(Minkowski Distance)
    闵氏距离不是一种距离,而是一组距离的定义。

    (1) 闵氏距离的定义

    两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为:这里写图片描述
    其中p是一个变参数。
    当p=1时,就是曼哈顿距离
    当p=2时,就是欧氏距离
    当p→∞时,就是切比雪夫距离
    根据变参数的不同,闵氏距离可以表示一类的距离。

    (2)闵氏距离的缺点

      闵氏距离,包括曼哈顿距离、欧氏距离和切比雪夫距离都存在明显的缺点。
      举个例子:二维样本(身高,体重),其中身高范围是150~190,体重范围是50~60,有三个样本:a(180,50),b(190,50),c(180,60)。那么a与b之间的闵氏距离(无论是曼哈顿距离、欧氏距离或切比雪夫距离)等于a与c之间的闵氏距离,但是身高的10cm真的等价于体重的10kg么?因此用闵氏距离来衡量这些样本间的相似度很有问题。简单说来,闵氏距离的缺点主要有两个:
      (1)将各个分量的量纲(scale),也就是“单位”当作相同的看待了。
      (2)没有考虑各个分量的分布(期望,方差等)可能是不同的。
      

    (3)Matlab计算闵氏距离

    例子:计算向量(0,0)、(1,0)、(0,2)两两间的闵氏距离(以变参数为2的欧氏距离为例)
    X = [0 0 ; 1 0 ; 0 2]
    D = pdist(X,’minkowski’,2)
    结果:D = 1.0000 2.0000 2.2361


    5. 标准化欧氏距离 (Standardized Euclidean distance )

    (1)标准欧氏距离的定义

      标准化欧氏距离是针对简单欧氏距离的缺点而作的一种改进方案。标准欧氏距离的思路:既然数据各维分量的分布不一样,好吧!那我先将各个分量都“标准化”到均值、方差相等吧。均值和方差标准化到多少呢?这里先复习点统计学知识吧,假设样本集X的均值(mean)为m,标准差(standard deviation)为s,那么X的“标准化变量”表示为:
      而且标准化变量的数学期望为0,方差为1。因此样本集的标准化过程(standardization)用公式描述就是:
    这里写图片描述 标准化后的值 = ( 标准化前的值 - 分量的均值 ) /分量的标准差
      经过简单的推导就可以得到两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的标准化欧氏距离的公式:
    这里写图片描述
      如果将方差的倒数看成是一个权重,这个公式可以看成是一种加权欧氏距离(Weighted Euclidean distance)。

    (2)Matlab计算标准化欧氏距离

    例子:计算向量(0,0)、(1,0)、(0,2)两两间的标准化欧氏距离 (假设两个分量的标准差分别为0.5和1)
    X = [0 0 ; 1 0 ; 0 2]
    D = pdist(X, ‘seuclidean’,[0.5,1])
    结果:D = 2.0000 2.0000 2.8284


    6. 马氏距离(Mahalanobis Distance)

    (1)马氏距离定义

    有M个样本向量X1~Xm,协方差矩阵记为S,均值记为向量μ,则其中样本向量X到u的马氏距离表示为:
    这里写图片描述
    而其中向量Xi与Xj之间的马氏距离定义为:
    这里写图片描述
    若协方差矩阵是单位矩阵(各个样本向量之间独立同分布),则公式就成了:
    这里写图片描述
    也就是欧氏距离了。
    若协方差矩阵是对角矩阵,公式变成了标准化欧氏距离。

    (2)马氏距离的优缺点

    量纲无关,排除变量之间的相关性的干扰。

    (3) Matlab计算

    例子:计算向量(1 2),( 1 3),( 2 2),( 3 1)两两之间的马氏距离
    X = [1 2; 1 3; 2 2; 3 1]
    Y = pdist(X,’mahalanobis’)
    结果:Y = 2.3452 2.0000 2.3452 1.2247 2.4495 1.2247


    7. 夹角余弦(Cosine)
    几何中夹角余弦可用来衡量两个向量方向的差异,机器学习中借用这一概念来衡量样本向量之间的差异。余弦距离更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用用户对内容评分来区分兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦距离对绝对数值不敏感)。

    (1)在二维空间中向量A(x1,y1)与向量B(x2,y2)的夹角余弦公式:

    这里写图片描述

    (2) 两个n维样本点a(x11,x12,…,x1n)和b(x21,x22,…,x2n)的夹角余弦

    类似的,对于两个n维样本点a(x11,x12,…,x1n)和b(x21,x22,…,x2n),可以使用类似于夹角余弦的概念来衡量它们间的相似程度:
    这里写图片描述
    即:这里写图片描述
    夹角余弦取值范围为[-1,1]。夹角余弦越大表示两个向量的夹角越小,夹角余弦越小表示两向量的夹角越大。当两个向量的方向重合时夹角余弦取最大值1,当两个向量的方向完全相反夹角余弦取最小值-1。
    夹角余弦的具体应用可以参阅参考文献[1]。

    (3)Matlab计算夹角余弦

    例子:计算(1,0)、( 1,1.732)、( -1,0)两两间的夹角余弦
    X = [1 0 ; 1 1.732 ; -1 0]
    D = 1- pdist(X, ‘cosine’) % Matlab中的pdist(X, ‘cosine’)得到的是1减夹角余弦的值
    结果:D = 0.5000 -1.0000 -0.5000

    (4)、调整余弦相似度算法(Adjusted Cosine Similarity)

    这里写图片描述
    从上图可以看出,欧氏距离衡量的是空间各点的绝对距离,跟各个点所在的位置坐标直接相关;而余弦距离衡量的是空间向量的夹角,更加体现在方向上的差异,而不是位置。如果保持A点位置不变,B点朝原方向远离坐标轴原点,那么这个时候余弦距离 clip_image011 是保持不变的(因为夹角没有发生变化),而A、B两点的距离显然在发生改变,这就是欧氏距离和余弦距离之间的不同之处。
    欧氏距离和余弦距离各自有不同的计算方式和衡量特征,因此它们适用于不同的数据分析模型:

    欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,如使用用户行为指标分析用户价值的相似度或差异。

    余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感,因此没法衡量每个维度上数值的差异,会导致这样一种情况:用户对内容评分,按5分制,X和Y两个用户对两个内容的评分分别为(1,2)和(4,5),使用余弦相似度得到的结果是0.98,两者极为相似。但从评分上看X似乎不喜欢2这个 内容,而Y则比较喜欢,余弦相似度对数值的不敏感导致了结果的误差,需要修正这种不合理性就出现了调整余弦相似度,即所有维度上的数值都减去一个均值,比如X和Y的评分均值都是3,那么调整后为(-2,-1)和(1,2),再用余弦相似度计算,得到-0.8,相似度为负值并且差异不小,但显然更加符合现实。

    那么是否可以在(用户-商品-行为数值)矩阵的基础上使用调整余弦相似度计算呢?从算法原理分析,复杂度虽然增加了,但是应该比普通余弦夹角算法要强。


    8. 汉明距离(Hamming distance)

    (1)汉明距离的定义

    两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数。例如字符串“1111”与“1001”之间的汉明距离为2。
    应用:信息编码(为了增强容错性,应使得编码间的最小汉明距离尽可能大)。

    (2)Matlab计算汉明距离

    Matlab中2个向量之间的汉明距离的定义为2个向量不同的分量所占的百分比。例子:计算向量(0,0)、(1,0)、(0,2)两两间的汉明距离
    X = [0 0 ; 1 0 ; 0 2];
    D = PDIST(X, ‘hamming’)
    结果:D = 0.5000 0.5000 1.0000


    9. 杰卡德相似系数(Jaccard similarity coefficient)

    (1) 杰卡德相似系数

    两个集合A和B的交集元素在A,B的并集中所占的比例,称为两个集合的杰卡德相似系数,用符号J(A,B)表示。 在《Mahout实战》这本书中,杰卡德相似系数也被称之为谷本系数(Tanimoto Coefficient Similarity)。当且仅当偏好值为布尔值或者根本没有偏好值可用时,才需要用到这一度量方法【6】。
    这里写图片描述
    杰卡德相似系数是衡量两个集合的相似度一种指标。

    (2) 杰卡德距离

    与杰卡德相似系数相反的概念是杰卡德距离(Jaccard distance)。杰卡德距离可用如下公式表示:
    这里写图片描述
    杰卡德距离用两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。

    (3) 杰卡德相似系数与杰卡德距离的应用

    可将杰卡德相似系数用在衡量样本的相似度上。
    样本A与样本B是两个n维向量,而且所有维度的取值都是0或1。例如:A(0111)和B(1011)。我们将样本看成是一个集合,1表示集合包含该元素,0表示集合不包含该元素。
    - p :样本A与B都是1的维度的个数
    - q :样本A是1,样本B是0的维度的个数
    - r :样本A是0,样本B是1的维度的个数
    - s :样本A与B都是0的维度的个数
    那么样本A与B的杰卡德相似系数可以表示为:这里p+q+r可理解为A与B的并集的元素个数,而p是A与B的交集的元素个数。
    而样本A与B的杰卡德距离表示为:这里写图片描述

    (4)Matlab 计算杰卡德距离

    Matlab的pdist函数定义的杰卡德距离跟我这里的定义有一些差别,Matlab中将其定义为不同的维度的个数占“非全零维度”的比例。
    例子:计算(1,1,0)、(1,-1,0)、(-1,1,0)两两之间的杰卡德距离
    X = [1 1 0; 1 -1 0; -1 1 0]
    D = pdist( X , ‘jaccard’)
    结果D = 0.5000 0.5000 1.0000


    10. 相关系数 ( Correlation coefficient )与相关距离(Correlation distance)

    (1) 相关系数的定义

    这里写图片描述
    相关系数是衡量随机变量X与Y相关程度的一种方法,相关系数的取值范围是[-1,1]。相关系数的绝对值越大,则表明X与Y相关度越高。当X与Y线性相关时,相关系数取值为1(正线性相关)或-1(负线性相关)。

    (2)相关距离的定义

    这里写图片描述

    (3)Matlab计算(1, 2 ,3 ,4 )与( 3 ,8 ,7 ,6 )之间的相关系数与相关距离
    X = [1 2 3 4 ; 3 8 7 6]
    C = corrcoef( X’ ) %将返回相关系数矩阵
    D = pdist( X , ‘correlation’)
    结果:
    C = 1.0000 0.4781 0.4781 1.0000
    D =0.5219
    其中0.4781就是相关系数,0.5219是相关距离。


    11. 信息熵(Information Entropy)
    信息熵是衡量分布的混乱程度或分散程度的一种度量。分布越分散(或者说分布越平均),信息熵就越大。分布越有序(或者说分布越集中),信息熵就越小。
    计算给定的样本集X的信息熵的公式:这里写图片描述
    参数的含义:
    n:样本集X的分类数
    pi:X中第i类元素出现的概率
    信息熵越大表明样本集S分类越分散,信息熵越小则表明样本集X分类越集中。。当S中n个分类出现的概率一样大时(都是1/n),信息熵取最大值log2(n)。当X只有一个分类时,信息熵取最小值0


    参考资料:
    [1]吴军. 数学之美 系列 12 - 余弦定理和新闻的分类.
    http://www.google.com.hk/ggblog/googlechinablog/2006/07/12_4010.html
    [2] Wikipedia. Jaccard index.
    http://en.wikipedia.org/wiki/Jaccard_index
    [3] Wikipedia. Hamming distance
    http://en.wikipedia.org/wiki/Hamming_distance
    [4] 求马氏距离(Mahalanobis distance )matlab版
    http://junjun0595.blog.163.com/blog/static/969561420100633351210/
    [5] Pearson product-moment correlation coefficient
    http://en.wikipedia.org/wiki/Pearson_product-moment_correlation_coefficient
    [6]《Mahout实战》,第45页:4.3.7 忽略偏好值基于谷本系数计算相似度

    展开全文
  • 相似性度量外围文档资料

    热门讨论 2017-02-26 10:35:43
    相似性度量外围文档资料,为博客http://blog.csdn.net/wangyaninglm/article/details/43853435的补充
  • 本文提出了基于证据相似性度量的目标识别融合改进算法,利用证据相似性度量对证据源进行修正,通过对水下不同背景噪声数据进行融合试验表明,经数据融合后,目标识别率可由原来的80%提高到99%,从而证明本文所提出的...
  • 摘 要:为解决异构信息网络相似性度量的问题,提出了基于节点特征子图的节点相似性度量算法,通过节点特征子图的最大公共子图与最小公共超图之间的差异性,进行节点间的相似性度量。该算法以图理论为基础,根据连边...
  • 数据间的相似性度量是进一步分析数据集整体特性的一个重要基础。针对高维数据的相似性度量问题,提出了一种基于子空间的相似性度量方法。该方法先将高维空间进行基于网格的划分,然后在划分后的子空间内计算数据间的...
  • 轨迹相似性度量

    万次阅读 多人点赞 2018-07-05 20:34:43
    轨迹相似性通常用一个距离函数来计算,现行比较常用的轨迹相似性度量指标有多种,而且分别有各自的优势,如何选择不同的轨迹相似性度量是进行轨迹聚类的关键。 在介绍轨迹相似性之前,先考虑如何定义点与轨迹之间的...

        轨迹相似性对于移动对象分析来说是一个重要的指标,如何度量轨迹相似性,则是中心问题。轨迹相似性通常用一个距离函数来计算,现行比较常用的轨迹相似性度量指标有多种,而且分别有各自的优势,如何选择不同的轨迹相似性度量是进行轨迹聚类的关键。

        在介绍轨迹相似性之前,先考虑如何定义点与轨迹之间的相似性[1]。假设有查询点q与轨迹A,q与A之间的相似性通常定义如下:

     

    p'为轨迹A上按照d(.)计算距离最小的点。因此,点到轨迹的距离本质上还是计算点到点的距离,核心部分在于d(.)的定义,计算两个点距离时,可以选择L-P范数,可以选择欧氏距离,切式距离,曼哈顿距离等各种距离计算方法。对于经纬度数据,计算大圆距离显然比直接计算经纬度欧氏距离更准确。

        轨迹与轨迹之间的相似度有多种经典度量指标。

    1. Closest-Pair Distance(CPD)
    2. Sum-of-Pairs Distance (SPD)
    3. DTW
    4. LCSS
    5. EDR       

    CPD距离即找出两条轨迹之间两点距离最近的两个点,以该点对的距离作为轨迹距离。计算公式如下所示:


    CPD距离定义简单,但是容易受到局部极端情况的影响,考虑两条轨迹在某点相交,然而整体情况差异很大,这种情况用CPD距离显然不合适。总体来说,这种方法不是很好。

    SPD[2]距离对两条轨迹对应序号的点对计算距离并求和,以该求和距离作为轨迹相似性分数。计算公式如下:


    观察SPD距离发现,SPD距离要求轨迹A和轨迹B具有相同的轨迹点个数。在此基础上可以做出一些改进[3],以便可以适应轨迹长度不同的情况,同时考虑轨迹方向的影响,参考Hausdorff distance algorithm ,类似于对称SPD距离。

     

    总体距离分数为score = (d(A,B) + d(B,A)) / 2。对于d(A,B),按照轨迹点index顺序,找出轨迹A上每个点到轨迹B的最短距离,求和并除以总点数。

    DTW距离的计算不受到轨迹点数是否相同的限制,计算公式为:


    给定轨迹A<a1,a2,...an>和轨迹B<b1,b2,...bm>,Head(A)表示a1,Rest(A)表示<a2,a3...an>。

    噪声点存在的情况下,之前的计算方法会受到很大影响,而LCSS方法[4]在解决噪声点影响时很有效。LCSS全称为最大公共子串,假定A和B是点数分别为n和m,给定整数δ 和距离阈值ε 。LSSS的定义如下:


    与DTW一样,计算方法用一种动态规划的形式定义。

    虽然LCSS距离考虑到噪声的影响,但是LCSS无法区分具有相同公共子序列的轨迹,因此提出EDR[5]距离。


    n,m为轨迹A,B的长度。subcost定义为:


    轨迹相似性度量在轨迹聚类,移动目标分析中是个关键的问题,考虑到数据量,计算复杂度,噪声等影响因素,不同情况下需要选择不同度量。





    参考资料:

    《Computing with Spatial Trajectories》 郑宇 

    Agrawal, R., Faloutsos, C., Swami, A.N.: Efficient similarity search in sequence databases.
    FODO pp. 69–84 (1993)

    Chen, L., Ozsu, M.T., Oria, V.: Robust and fast similarity search for moving object trajectories.
    SIGMOD (2005)

    Chen, Z., Shen, H.T., Zhou, X., Zheng, Y., Xie, X.: Searching trajectories by locations - an

    efficiency study. SIGMOD (2010) 

    Jon Froehlich John Krumm: Route Prediction from Trip Observations(2008)

















    展开全文
  • 区间值模糊集的相似性度量
  • 粗糙集的两种相似性度量
  • 几种图像相似性度量的匹配性能比较 几种图像相似性度量的匹配性能比较
  • 人工智能算法的视角卷一草稿 第四章 相似性度量 第 4 章 相似性度量 对于相似性 similarity 的判断是人类认识世界的关键基于相似事物的共同特性 我们才能得以形成概念发现客观规律这正是机器学习的要义相似性可以是...
  • 在做分类时常常需要估算不同样本之间的相似性度量,这个文档对欧氏距离、曼哈顿距离、切比雪夫距离等常用的16个相似性度量作了一个总结。
  • 分别描述了离散型数据的和连续性数据的相似性度量,并对KNN算法进行 了比较详细的叙述,并用java实现了KNN分类算法
  • 基于最大流的光谱聚类相似性度量
  • 改进DTW算法的心电信号相似性度量
  • 用户兴趣相似性度量的关系预测算法
  • 社会网络顶点间相似性度量及其应用

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 55,084
精华内容 22,033
关键字:

相似性度量