distance_distance函数matlab - CSDN
精华内容
参与话题
  • 距离(distance)算法小结

    千次阅读 2018-12-04 14:50:51
    18种和“距离(distance)”、“相似度(similarity)”相关的量的小结 在计算机人工智能领域,距离(distance)、相似度(similarity)是经常出现的基本概念,它们在自然语言处理、计算机视觉等子领域有重要的应用,而这些...

    18种和“距离(distance)”、“相似度(similarity)”相关的量的小结

    在计算机人工智能领域,距离(distance)、相似度(similarity)是经常出现的基本概念,它们在自然语言处理、计算机视觉等子领域有重要的应用,而这些概念又大多源于数学领域的度量(metric)、测度(measure)等概念。 
    这里拮取其中18种做下小结备忘,也借机熟悉markdown的数学公式语法。

     

    常见的距离算法和相似度(相关系数)计算方法

    摘要:

      1.常见的距离算法

        1.1欧几里得距离(Euclidean Distance)以及欧式距离的标准化(Standardized Euclidean distance)

        1.2马哈拉诺比斯距离(Mahalanobis Distance)

        1.3曼哈顿距离(Manhattan Distance)

        1.4切比雪夫距离(Chebyshev Distance)

        1.5明可夫斯基距离(Minkowski Distance)

        1.6海明距离(Hamming distance)

       2.常见的相似度(系数)算法

        2.1余弦相似度(Cosine Similarity)以及调整余弦相似度(Adjusted Cosine Similarity)

        2.2皮尔森相关系数(Pearson Correlation Coefficient)

        2.3Jaccard相似系数(Jaccard Coefficient)

        2.4Tanimoto系数(广义Jaccard相似系数)

        2.5对数似然相似度/对数似然相似率

        2.6互信息/信息增益,相对熵/KL散度

        2.7信息检索--词频-逆文档频率(TF-IDF)

        2.8词对相似度--点间互信息

      3.距离算法与相似度算法的选择(对比)

    内容:

      1.常见的距离算法

        1.1欧几里得距离(Euclidean Distance)

        公式:

        标准欧氏距离的思路:现将各个维度的数据进行标准化:标准化后的值 = ( 标准化前的值 - 分量的均值 ) /分量的标准差,然后计算欧式距离

        欧式距离的标准化(Standardized Euclidean distance)

        公式:

     

        1.2马哈拉诺比斯距离(Mahalanobis Distance)

        公式:

         关系:若协方差矩阵是对角矩阵,公式变成了标准化欧氏距离;如果去掉马氏距离中的协方差矩阵,就退化为欧氏距离。欧式距离就好比一个参照值,它表征的是当所有类别等概率出现的情况下,类别之间的距离;当类别先验概率并不相等时,马氏距离中引入的协方差参数(表征的是点的稀密程度)来平衡两个类别的概率。

         特点:量纲无关,排除变量之间的相关性的干扰。 

             扩展

        1.3曼哈顿距离(Manhattan Distance)

        公式:

         定义:通俗来讲,想象你在曼哈顿要从一个十字路口开车到另外一个十字路口实际驾驶距离就是这个“曼哈顿距离”,此即曼哈顿距离名称的来源,同时,曼哈顿距离也称为城市街区距离(City Block distance)。

        1.4切比雪夫距离(Chebyshev Distance)

        公式:

         

        1.5明可夫斯基距离(Minkowski Distance)

        定义:

        关系:明氏距离是欧氏距离的推广,是对多个距离度量公式的概括性的表述。p=1退化为曼哈顿距离;p=2退化为欧氏距离;切比雪夫距离是明氏距离取极限的形式。这里明可夫斯基距离就是p-norm范数的一般化定义。

         下图给出了一个Lp球(||X||p=1)的形状随着P的减少的可视化图:

        

          参照:浅谈L0,L1,L2范数及其应用机器学习中的范数与距离浅谈压缩感知(十):范数与稀疏性

       

        1.6海明距离(Hamming distance)

        定义:在信息论中,两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。

        场景:在海量物品的相似度计算中可用simHash对物品压缩成字符串,然后使用海明距离计算物品间的距离 

        参考simHash 简介以及 java 实现相似度计算常用方法综述通过simHash判断数组内容相同(或者网页排重)的测试代码

      2.常见的相似度(系数)算法

        2.1余弦相似度(Cosine Similarity)

        公式:

        定义:两向量越相似,向量夹角越小,cosine绝对值越大;值为负,两向量负相关。

        不足:只能分辨个体在维之间的差异,没法衡量每个维数值的差异(比如用户对内容评分,5分制,X和Y两个用户对两个内容的评分分别为(1,2)和(4,5),使用余弦相似度得出的结果是0.98,两者极为相似,但从评分上看X似乎不喜欢这2个内容,而Y比较喜欢,余弦相似度对数值的不敏感导致了结果的误差,需要修正这种不合理性)

         调整余弦相似度(Adjusted Cosine Similarity)

        公式:,其中Here $\bar{R_{u}}$ is the average of the u-th user's ratings.

      

        2.2皮尔森相关系数(Pearson Correlation Coefficient)

        

        定义:两个变量之间的皮尔逊相关系数定义为两个变量之间的协方差和标准差的商

        扩展

        2.3Jaccard相似系数(Jaccard Coefficient)

        公式:,这里X,Y不再是向量,而变成了集合

        定义:Jaccard系数主要用于计算符号度量或布尔值度量的个体间的相似度,无法衡量差异具体值的大小,只能获得“是否相同”这个结果,所以Jaccard系数只关心个体间共同具有的特征是否一致这个问题。Jaccard系数等于样本集交集与样本集合集的比值。

        计算:假设样本A和样本B是两个n维向量,而且所有维度的取值都是0或1。例如,A(0,1,1,0)和B(1,0,1,1)。我们将样本看成一个集合,1表示集合包含该元素,0表示集合不包含该元素。

        p:样本A与B都是1的维度的个数

        q:样本A是1而B是0的维度的个数

        r:样本A是0而B是1的维度的个数

        s:样本A与B都是0的维度的个数

        那么样本A与B的杰卡德相似系数可以表示为:

          clip_image017

        附:与Jaccard Coefficient相对应的是Jaccard 距离:d(X,Y) = 1 - Jaccard(X,Y);杰卡德距离用两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。(参考自余弦距离、欧氏距离和杰卡德相似性度量的对比分析)

     

        2.4Tanimoto系数(广义Jaccard相似系数)

        公式:

     

        定义:广义Jaccard相似度,元素的取值可以是实数。又叫作谷本系数

        关系:如果我们的x,y都是二值向量,那么Tanimoto系数就等同Jaccard距离。

     

        2.5对数似然相似率

        对于事件A和事件B,我们考虑两个事件发生的次数:

        k11:事件A与事件B同时发生的次数
        k12:B事件发生,A事件未发生
        k21:A事件发生,B事件未发生
        k22:事件A和事件B都未发生

        
        rowEntropy = entropy(k11, k12) + entropy(k21, k22)
        columnEntropy = entropy(k11, k21) + entropy(k12, k22)
        matrixEntropy = entropy(k11, k12, k21, k22)
        2 * (matrixEntropy - rowEntropy - columnEntropy)

        详情 扩展

        2.6互信息/信息增益,相对熵/KL散度

        互信息/信息增益:信息论中两个随机变量的相关性程度

        公式:

        

        

        相对熵/KL散度:又叫交叉熵,用来衡量两个取值为正数的函数(概率分布)的相似性

        公式:

        

        扩展:知乎问答

        2.7信息检索--词频-逆文档频率(TF-IDF)

        《数学之美》中看到的TF-IDF算法,在网页查询(Query)中相关性以词频(TF)与逆文档频率(IDF)来度量查询词(key)和网页(page)的相关性;

        网页中出现key越多,该page与查询结果越相关,可以使用TF值来量化

        每个词的权重越高,也即一个词的信息量越大;比如“原子能”就比“应用”的预测能力强,可以使用IDF值来量化,这里的IDF《数学之美》中说就是一个特定条件下关键词的概率分布的交叉熵。

          

            2.8词对相似度--点间相似度

        

     

    3.距离算法与相似度算法的选择(对比)

      3.1 欧式距离和余弦相似度

        欧几里得距离度量会受指标不同单位刻度的影响,所以一般需要先进行标准化,同时距离越大,个体间差异越大

        空间向量余弦夹角的相似度度量不会受指标刻度的影响,余弦值落于区间[-1,1],值越大,差异越小

        当两用户评分趋势一致时,但是评分值差距很大,余弦相似度倾向给出更优解。例如向量(3,3)和(5,5),这两位用户的认知其实是一样的,但是欧式距离给出的解显然没有余弦值合理。

        余弦相似度衡量的是维度间相对层面的差异,欧氏度量衡量数值上差异的绝对值;一种长度与方向的度量所造成的不同;余弦相似度只在[0,1]之间,而马氏距离在[0,无穷)之间(注:以上参考自知乎问题

        应用上如果要比较不同人的消费能力,可以使用欧式距离进行度量(价值度量);如果想要比较不同用户是否喜欢周杰伦,可以使用余弦相似度(定性度量)

     

    数学:相似度计算方法——距离

    在数据分析和数据挖掘以及搜索引擎中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。常见的比如数据分析中比如相关分析,数据挖掘中的分类聚类(K-Means等)算法,搜索引擎进行物品推荐时。

    相似度就是比较两个事物的相似性。一般通过计算事物的特征之间的距离,如果距离小,那么相似度大;如果距离大,那么相似度小。比如两种水果,将从颜色,大小,维生素含量等特征进行比较相似性。

     

    1、欧几里得距离(Eucledian Distance)

    欧氏距离是最常用的距离计算公式,衡量的是多维空间中各个点之间的绝对距离,当数据很稠密并且连续时,这是一种很好的计算方式。n维空间中的欧式距离的计算公式为:

    因为计算是基于各维度特征的绝对数值,所以欧氏度量需要保证各维度指标在相同的刻度级别,比如对身高(cm)和体重(kg)两个单位不同的指标使用欧式距离可能使结果失效。 

     

     

     

     

    2、曼哈顿距离(Manhattan Distance)

    两个点在标准坐标系上的绝对轴距总和,在2维空间中的计算公式为:

    这里写图片描述

     

    3、切比雪夫距离(Chebyshev Distance)

    各坐标数值差的最大值,在2维空间中的计算公式为:

     

    4、明可夫斯基距离(Minkowski Distance)

    明氏距离是欧氏距离的推广,是对多个距离度量公式的概括性的表述,看看下图:

     

    这里写图片描述
    公式: 
    这里写图片描述

    从公式我们可以看出,

    • 当p==1,“明可夫斯基距离”变成“曼哈顿距离”
    • 当p==2,“明可夫斯基距离”变成“欧几里得距离”
    • 当p==∞,“明可夫斯基距离”变成“切比雪夫距离”

     

    5、海明距离(Hamming Distance)

    在信息论中,两个等长字符串之间的海明距离是两个字符串对应位置的不同字符的个数。换句话说,它就是将一个字符串变换成另外一个字符串所需要替换的字符个数。具体如下:

    • "toned" and "roses" is 3.  “toned”和“roses”的海明距离是3。
    • 1011101 and 1001001 is 2.  “1011101”和“1001001”的海明距离是2.
    • 2173896 and 2233796 is 3.   “2173896”和“2233796”的海明距离是3.
    • Hamming <wbr>distance

      三bit位海明距离立方体

      其中,100->011 海明距离为3, 010->111海明距离为2

     

    6、余弦相似度(Cosine Similarity)

    余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。 

     

    7、Jaccard Similarity

    Jaccard系数主要用于计算符号度量或布尔值度量的个体间的相似度,因为个体的特征属性都是由符号度量或者布尔值标识,因此无法衡量差异具 体值的大小,只能获得“是否相同”这个结果,所以Jaccard系数只关心个体间共同具有的特征是否一致这个问题。 


    对于上面两个对象A和B,我们用Jaccard计算它的相似性,公式如下 
    这里写图片描述

    首先计算出A和B的交(A ∩ B),以及A和B的并 (A ∪ B): 

    然后利用公式进行计算: 

     

    8、皮尔森相关系数(Pearson Correlation Coefficient)

    又称相关相似性,通过Peason相关系数来度量两个用户的相似性。计算时,首先找到两个用户共同评分过的项目集,然后计算这两个向量的相关系数。

    公式: 
    这里写图片描述

    展开全文
  • distance函数

    千次阅读 2011-11-06 22:37:45
    今天写个程序,要用到一个字符串与另一个字符串之间的距离(两个字符串对应位的字母不同的个数),于是自己写了个distance函数:  int distance(const char *p1,const char *p2);  但是结果跟自己想的不一样,...

      今天写个程序,要用到一个字符串与另一个字符串之间的距离(两个字符串对应位的字母不同的个数),于是自己写了个distance函数:

      int distance(const char *p1,const char *p2);

      但是结果跟自己想的不一样,但是如果把distance函数改为

     int distance(char *p1,char *p2);

      就会出现想要的结果。

      怎么想都想不通啊,怎么可能,参数传递不可能出现问题的啊,后来仔细试呀试,发现改为加const的时候,这个函数根本没被调用!

      然后用GDB,调试,发现调用的函数是

    iterator::distance_type (const char *p1,const char *p2);  这才恍然大悟,我去,原来系统中有个distance函数!查过这个函数之后,发现这个函数是

    template<class InputIterator>
      typename iterator_traits<InputIterator>::difference_type
        distance (InputIterator first, InputIterator last);
    例如:
    
    // distance example
    #include <iostream>
    #include <iterator>
    #include <list>
    using namespace std;
    
    int main () {
      list<int> mylist;
      for (int i=0; i<10; i++) mylist.push_back (i*10);
    
      list<int>::iterator first = mylist.begin();
      list<int>::iterator last = mylist.end();
    
      cout << "The distance is: " << distance(first,last) << endl;
    
      return 0;
    }
    
    结果:10


     哎,郁闷啊。


    展开全文
  • distance函数的用法

    万次阅读 2015-02-04 23:20:37
    function template ...std::distance template typename iterator_traits::difference_type distance (InputIterator first, InputIterator last); Return distance between iterators Calculates
    function template
    <iterator>

    std::distance

    template<class InputIterator>
      typename iterator_traits<InputIterator>::difference_type
        distance (InputIterator first, InputIterator last);
    Return distance between iterators
    Calculates the number of elements between first and last.

    If it is a random-access iterator, the function uses operator- to calculate this. Otherwise, the function uses the increase operator (operator++) repeatedly.

    Parameters

    first
    Iterator pointing to the initial element.
    last
    Iterator pointing to the final element. This must be reachable from first.
    InputIterator shall be at least an input iterator.

    Return value

    The number of elements between first and last.

    Example

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    
    // advance example
    #include <iostream>     // std::cout
    #include <iterator>     // std::distance
    #include <list>         // std::list
    
    int main () {
      std::list<int> mylist;
      for (int i=0; i<10; i++) mylist.push_back (i*10);
    
      std::list<int>::iterator first = mylist.begin();
      std::list<int>::iterator last = mylist.end();
    
      std::cout << "The distance is: " << std::distance(first,last) << '\n';
    
      return 0;
    }



    Output:
    
    The distance is: 10
    
    展开全文
  • 在计算机人工智能领域,距离(distance)、相似度(similarity)是经常出现的基本概念,它们在自然语言处理、计算机视觉等子领域有重要的应用,而这些概念又大多源于数学领域的度量(metric)、测度(measure)等概念。...

    在计算机人工智能领域,距离(distance)、相似度(similarity)是经常出现的基本概念,它们在自然语言处理、计算机视觉等子领域有重要的应用,而这些概念又大多源于数学领域的度量(metric)、测度(measure)等概念。
    这里拮取其中18种做下小结备忘,也借机熟悉markdown的数学公式语法。

    英文名 中文名 算式 说明
    Euclidean Distance 欧式距离
    d=i=1n(xiyi)2
    以古希腊数学家欧几里得命名的距离;也就是我们直观的两点之间直线最短的直线距离
    Manhattan Distance 曼哈顿距离
    d=i=1n|xiyi|
    是由十九世纪的赫尔曼·闵可夫斯基所创词汇;是种使用在几何度量空间的几何学用语,用以标明两个点在标准坐标系上的绝对轴距总和;也就是和象棋中的“車”一样横平竖直的走过的距离;曼哈顿距离是超凸度量
    Minkowski Distance 闵氏距离
    d=i=1n(xiyi)pp
    以俄罗斯数学家闵可夫斯基命名的距离;是欧式距离的推广,p=2时等价于欧氏距离,和p-范数等值
    Hamming Distance 海明距离 逐个字符(或逐位)对比,统计不一样的位数的个数总和 所得值越小,参与对比的两个元素约相似;下面是从wikipedia借的4bit的海明距离示意图4bit的海明距离示意图
    Jaccard Coefficient 杰卡德距离
    J(A,B)=|AB||AB|
    越大越相似;分子是A和B的交集大小,分母是A和B的并集大小
    Ochiai Coefficient ?
    K=n(AB)n(A)×n(B)
    Pearson Correlation 皮尔森相关系数
    r=ni=1(Xix¯)(yiy¯)ni=1(Xix¯)2ni=1(yiy¯)2
    分子是两个集合的交集大小,分母是两个集合大小的几何平均值。是余弦相似性的一种形式
    Cosine Similarity 余弦相似度
    S=xy|x||y|
    Mahalanobis Distance 马氏距离
    d=(x⃗ y⃗ )TS1(x⃗ y⃗ )
    其中S是x和y的协方差矩阵
    印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法;若协方差矩阵是对角阵(diagonal),则该距离退化为欧式距离
    Kullback-Leibler Divergence K-L散度
    D(P||Q)=i=1nP(i)logP(i)Q(i)
    即相对熵;是衡量两个分布(P、Q)之间的距离;越小越相似
    PMI(Pointwise Mutual Information) 点对互信息
    pmi=logp(x,y)p(x)p(y)=logp(y|x)p(y)
    利用co-occurance来衡量x和y的相似度;越大越相关;可以看做局部点的互信息(mutual information)
    NGD(Normalized Google Distance) ?
    NGD(x,y)=max{logf(x),logf(y)}logf(x,y)logMmin{logf(x),logf(y)}
    这是google用来衡量两个不同的关键字(keyword)的检索结果之间的相关程度;其中f(x)代表包含了关键字x的页面数量,f(x,y)代表同时包含了关键字x和关键字y的页面的数量,M代表google所搜索的总页数;若两个关键字总是成对出现在页面上,那么NGD值为0,相反的,如果两个关键字在所有页面上都没有同时出现过,那么NGD值为无穷;该量是从normalized compression distance (Cilibrasi & Vitanyi 2003)衍生而来的
    Levenshtein Distance(Edit Distance) Levenshtein距离(编辑距离) f(n)=
    max(i,j)minleva,b(i1,j)+1leva,b(i,j1)+1leva,b(i1,j1)+1(aibj)if min(i,j)=0,otherwise.
    是指两个字串之间,由一个转成另一个所需的最少编辑操作次数;俄罗斯科学家Vladimir Levenshtein在1965年提出这个概念;编辑距离越小的两个字符串越相似,当编辑距离为0时,两字符串相等
    Jaro-Winkler Distance ?
    013(m|s1|+m|s2|+mtm)if m=0otherwise
    Lee Distance 李氏距离
    d=i=1n|xiyi|
    在编码理论(coding theory)中两个字符串间距离的一种度量方法
    Hellinger Distance ?
    H2(P,Q)=12(dPdλdQdλ)2dλ

    dP/dλdQ/dλ为概率密度函数时,进一步有
    H2(P,Q)=1f(x)g(x)dx
    注意在作为概率意义的计算时需在测度空间进行;通常被用来度量两个概率分布的相似度,它是f散度的一种;由Ernst Helligner在1909年引进
    Canberra Distance 坎贝拉距离
    d(p⃗ ,q⃗ )=i=1n|piqi||pi|+|qi|

    where
    p⃗ =(p1,p2,,pn)
    and
    q⃗ =(q1,q2,,qn)
    Chebyshev Distance 切比雪夫距离
    DChebyshev(p,q)=maxi(|piqi|)=limk(i=1n|piqi|k)1/k
    切比雪夫距离是由一致范数(uniform norm)(或称为上确界范数)所衍生的度量,也是超凸度量
    展开全文
  • mysql距离函数st_distance

    万次阅读 2016-06-02 00:41:36
    随着近几年各类移动终端的迅速普及,在手机移动定位app中,附近的人,附近的地点功能十分常见,...st_distance 函数 st_distance 函数是从mysql5.6.1才加入的。 SET @g1 = POINT(1,1), @g2 = POINT(2,2); select st
  • distance

    2019-07-11 10:12:55
    1 /* 2 * Copyright 2016 E-Tool, Inc. 3 */ 4 5 #ifndef distance_h 6 #define distance_h 7 #include <math.h> 8 #include <vector> 9 using std::vector; 10 11 #define max(...
  • 蚁群算法

    千次阅读 2014-05-19 14:02:23
    蚁群算法(ant colony optimization, ACO),又称蚂蚁算法,是一种用来在图中寻找优化路径的机率型算法。它由Marco Dorigo于1992年在他的博士论文中提出,其灵感来源于蚂蚁在寻找食物过程中发现路径的行为。...
  • java.util.zip.ZipException:invalid distance distance too far back 这个错误,对于使用maven的童鞋来说应该是可能会遇到过。。。 这个原因就是maven下载相关jar包时未下载完全,导致服务器进行加载解压时出错。...
  • SELECT ... (st_distance (point (lng, lat),point(115.067,34.76) ) / 0.0111) AS distance FROM road_servicearea s HAVING distance&lt;30 ORDER BY distance 假设我当时的坐标:115.067,3...
  • 解压 war/jar文件时出现...java.util.zip.ZipException: invalid distance too far back at org.apache.commons.compress.archivers.zip.ZipArchiveInputStream.readFromInflater(ZipArchiveInputStream.java:478)
  • http://blog.csdn.net/pipisorry/article/details/48814183在scipy.spatial中最重要的模块应该就是距离计算模块distance了。距离计算矩阵距离计算函数...Distance matrix computation from a collection of raw obser
  • 卡方距离——Chi-square Distance

    万次阅读 2015-01-18 12:04:18
    卡方距离定义
  • scipy.spatial.distance.cdist

    万次阅读 多人点赞 2017-07-21 23:45:22
    语法:scipy.spatial.distance.cdist(XA, XB, metric='euclidean', p=None, V=None, VI=None, w=None),该函数用于计算两个输入集合的距离,通过metric参数指定计算距离的不同方式得到不同的距离度量值 metric的取值...
  • 使用stl中的 advance和 distance 方法来进行iterator的加减  以前在遍历vector的时候,经常使用iterator之间的加减来获得元素在容器里面的index。  今天在进行list的 iterator加减的时候,发现不能编译通过...
  • 首先去找一张学校的地图,并且自己配置好数据和路线 在代码里面写好数据 //地点信息 char _mapName[32][50] = {"行政楼","实验楼D", "教学楼A", "...计算机系&qu
  • 留作备用 https://en.wikipedia.org/wiki/Fr%C3%A9chet_distance https://blog.csdn.net/shine302/article/details/79863737 https://www.jianshu.com/p/268d31aee5c3
  • 一直以来都想写一篇metric learning(DML)的综述文章,对DML的意义、方法论和经典论文做一个介绍,同时对我的研究经历和思考做一个总结。可惜一直没有把握自己能够写好,因此拖到现在。 先烈一些DML的参考资源...
  • Fréchet distance(弗雷歇距离)是法国数学家Maurice René Fréchet在1906年提出的一种路径空间相似形描述( 此外还在这篇论文里定义了 度量空间),这种描述同时还考虑进路径空间距离的因素[1],对于空间路径的相似性...
  • 计算公式 二维空间的公式 其中, 为点 与点 之间的欧氏距离; 为点 到原点的欧氏距离。 三维空间的公式 n维空间的公式
  • scipy.spatial.distance.cosine函数的用法

    千次阅读 2018-06-03 19:54:23
    scipy.spatial.distance.cosine(u,v)作用:计算一维数组之间的余弦距离。(注意是一维数组的余弦距离)u和v之间的余弦距离定义为: 其中u⋅v是u和v的点积。参数:u:输入一维数组v:输入一维数组例子:from scipy....
1 2 3 4 5 ... 20
收藏数 186,341
精华内容 74,536
关键字:

distance