k近邻算法 订阅
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:在特征空间中,如果一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。 展开全文
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:在特征空间中,如果一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。
信息
地    位
最简单的机器学习算法之一
不    足
计算量较大
中文名
k近邻算法
外文名
k-Nearest Neighbour,KNN
k近邻算法概念介绍
用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。
收起全文
精华内容
下载资源
问答
  • K近邻算法、距离度量谈到KD树、SIFT+BBF算法

    万次阅读 多人点赞 2012-11-20 16:31:35
    K近邻算法、距离度量谈到KD树、SIFT+BBF算法前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树;2、神经网络;3、编程艺术第28章。你看到,blog内的文章与你于别处所见的任何都不同。于是...

              从K近邻算法、距离度量谈到KD树、SIFT+BBF算法

     

    前言

        前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树;2、神经网络;3、编程艺术第28章。你看到,blog内的文章与你于别处所见的任何都不同。于是,等啊等,等一台电脑,只好等待..”。得益于田,借了我一台电脑(借他电脑的时候,我连表示感谢,他说“能找到工作全靠你的博客,这点儿小忙还说,不地道”,有的时候,稍许感受到受人信任也是一种压力,愿我不辜负大家对我的信任),于是今天开始Top 10 Algorithms in Data Mining系列第三篇文章,即本文「从K近邻算法谈到KD树、SIFT+BBF算法」的创作。

        一个人坚持自己的兴趣是比较难的,因为太多的人太容易为外界所动了,而尤其当你无法从中得到多少实际性的回报时,所幸,我能一直坚持下来。毕达哥拉斯学派有句名言:“万物皆数”,最近读完「微积分概念发展史」后也感受到了这一点。同时,从算法到数据挖掘、机器学习,再到数学,其中每一个领域任何一个细节都值得探索终生,或许,这就是“终生为学”的意思。

        本文各部分内容分布如下:

    1. 第一部分讲K近邻算法,其中重点阐述了相关的距离度量表示法,
    2. 第二部分着重讲K近邻算法的实现--KD树,和KD树的插入,删除,最近邻查找等操作,及KD树的一系列相关改进(包括BBF,M树等);
    3. 第三部分讲KD树的应用:SIFT+kd_BBF搜索算法。

        同时,你将看到,K近邻算法同本系列的前两篇文章所讲的决策树分类贝叶斯分类,及支持向量机SVM一样,也是用于解决分类问题的算法

      

     

        而本数据挖掘十大算法系列也会按照分类,聚类,关联分析,预测回归等问题依次展开阐述。

        OK,行文仓促,本文若有任何漏洞,问题或者错误,欢迎朋友们随时不吝指正,各位的批评也是我继续写下去的动力之一。感谢。

     

    第一部分、K近邻算法

    1.1、什么是K近邻算法

        何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。为何要找邻居?打个比方来说,假设你来到一个陌生的村庄,现在你要找到与你有着相似特征的人群融入他们,所谓入伙。

        用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居),这K个实例的多数属于某个类,就把该输入实例分类到这个类中。根据这个说法,咱们来看下引自维基百科上的一幅图:

     

        如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在,我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。
        我们常说,物以类聚,人以群分,判别一个人是一个什么样品质特征的人,常常可以从他/她身边的朋友入手,所谓观其友,而识其人。我们不是要判别上图中那个绿色的圆是属于哪一类数据么,好说,从它的邻居下手。但一次性看多少个邻居呢?从上图中,你还能看到:

    • 如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
    • 如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。

        于此我们看到,当无法判定当前待分类点是从属于已知分类中的哪一类时,我们可以依据统计学的理论看它所处的位置特征,衡量它周围邻居的权重,而把它归为(或分配)到权重更大的那一类。这就是K近邻算法的核心思想。

    1.2、近邻的距离度量表示法

        上文第一节,我们看到,K近邻算法的核心在于找到实例点的邻居,这个时候,问题就接踵而至了,如何找到邻居,邻居的判定标准是什么,用什么来度量。这一系列问题便是下面要讲的距离度量表示法。但有的读者可能就有疑问了,我是要找邻居,找相似性,怎么又跟距离扯上关系了?

        这是因为特征空间中两个实例点的距离可以反应出两个实例点之间的相似性程度。K近邻模型的特征空间一般是n维实数向量空间,使用的距离可以使欧式距离,也是可以是其它距离,既然扯到了距离,下面就来具体阐述下都有哪些距离度量的表示法,权当扩展。

    • 1. 欧氏距离,最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 x = (x1,...,xn) 和 y = (y1,...,yn) 之间的距离为:

     

    (1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:

    (2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:

    (3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离:

    也可以用表示成向量运算的形式:

    其上,二维平面上两点欧式距离,代码可以如下编写:

    //unixfy:计算欧氏距离
    double euclideanDistance(const vector<double>& v1, const vector<double>& v2)
    {
         assert(v1.size() == v2.size());
         double ret = 0.0;
         for (vector<double>::size_type i = 0; i != v1.size(); ++i)
         {
             ret += (v1[i] - v2[i]) * (v1[i] - v2[i]);
         }
         return sqrt(ret);
     }
    • 2. 曼哈顿距离,我们可以定义曼哈顿距离的正式意义为L1-距离或城市区块距离,也就是在欧几里得空间的固定直角坐标系上两点所形成的线段对轴产生的投影的距离总和。例如在平面上,坐标(x1, y1)的点P1与坐标(x2, y2)的点P2的曼哈顿距离为:,要注意的是,曼哈顿距离依赖座标系统的转度,而非系统在座标轴上的平移或映射。 
         通俗来讲,想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。而实际驾驶距离就是这个“曼哈顿距离”,此即曼哈顿距离名称的来源, 同时,曼哈顿距离也称为城市街区距离(City Block distance)。

     

    (1)二维平面两点a(x1,y1)与b(x2,y2)间的曼哈顿距离 

    (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的曼哈顿距离 

      

     

    • 3. 切比雪夫距离,若二个向量或二个点p 、and q,其座标分别为,则两者之间的切比雪夫距离定义如下:
        这也等于以下Lp度量的极值:,因此切比雪夫距离也称为L∞度量。
     
        以数学的观点来看,切比雪夫距离是由一致范数(uniform norm)(或称为上确界范数)所衍生的度量,也是超凸度量(injective metric space)的一种。
        在平面几何中,若二点p及q的直角坐标系坐标为,则切比雪夫距离为:
     
        玩过国际象棋的朋友或许知道,国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步?。你会发现最少步数总是max( | x2-x1 | , | y2-y1 | ) 步 。有一种类似的一种距离度量方法叫切比雪夫距离。

     

    (1)二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离 

    (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的切比雪夫距离   

    这个公式的另一种等价形式是 

     

    • 4. 闵可夫斯基距离(Minkowski Distance),闵氏距离不是一种距离,而是一组距离的定义。
    (1) 闵氏距离的定义       
    两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为: 

    其中p是一个变参数。

    当p=1时,就是曼哈顿距离

    当p=2时,就是欧氏距离

    当p→∞时,就是切比雪夫距离       

    根据变参数的不同,闵氏距离可以表示一类的距离。 

    • 5. 标准化欧氏距离 (Standardized Euclidean distance ),标准化欧氏距离是针对简单欧氏距离的缺点而作的一种改进方案。标准欧氏距离的思路:既然数据各维分量的分布不一样,那先将各个分量都“标准化”到均值、方差相等。至于均值和方差标准化到多少,先复习点统计学知识。
       
      假设样本集X的数学期望或均值(mean)为m,标准差(standard deviation,方差开根)为s,那么X的“标准化变量”X*表示为:(X-m)/s,而且标准化变量的数学期望为0,方差为1。
      即,样本集的标准化过程(standardization)用公式描述就是:

      标准化后的值 =  ( 标准化前的值  - 分量的均值 ) /分量的标准差  


      经过简单的推导就可以得到两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的标准化欧氏距离的公式:  

      如果将方差的倒数看成是一个权重,这个公式可以看成是一种加权欧氏距离(Weighted Euclidean distance)。 
    • 6. 马氏距离(Mahalanobis Distance)

      (1)马氏距离定义       
      有M个样本向量X1~Xm,协方差矩阵记为S,均值记为向量μ,则其中样本向量X到u的马氏距离表示为: 

      (协方差矩阵中每个元素是各个矢量元素之间的协方差Cov(X,Y),Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},其中E为数学期望)
       
      而其中向量Xi与Xj之间的马氏距离定义为:    
      若协方差矩阵是单位矩阵(各个样本向量之间独立同分布),则公式就成了:       
      也就是欧氏距离了。  
      若协方差矩阵是对角矩阵,公式变成了标准化欧氏距离。
      (2)马氏距离的优缺点:量纲无关,排除变量之间的相关性的干扰。 
      「微博上的seafood高清版点评道:原来马氏距离是根据协方差矩阵演变,一直被老师误导了,怪不得看Killian在05年NIPS发表的LMNN论文时候老是看到协方差矩阵和半正定,原来是这回事」
    • 7、巴氏距离(Bhattacharyya Distance),在统计中,Bhattacharyya距离测量两个离散或连续概率分布的相似性。它与衡量两个统计样品或种群之间的重叠量的Bhattacharyya系数密切相关。Bhattacharyya距离和Bhattacharyya系数以20世纪30年代曾在印度统计研究所工作的一个统计学家A. Bhattacharya命名。同时,Bhattacharyya系数可以被用来确定两个样本被认为相对接近的,它是用来测量中的类分类的可分离性。
    (1)巴氏距离的定义
    对于离散概率分布 p和q在同一域 X,它被定义为:
    其中:
    是Bhattacharyya系数。
    对于连续概率分布,Bhattacharyya系数被定义为:
    这两种情况下,巴氏距离并没有服从三角不等式.(值得一提的是,Hellinger距离不服从三角不等式)。 
    对于多变量的高斯分布 
     
    和是手段和协方差的分布
    需要注意的是,在这种情况下,第一项中的Bhattacharyya距离与马氏距离有关联。 
    (2)Bhattacharyya系数
    Bhattacharyya系数是两个统计样本之间的重叠量的近似测量,可以被用于确定被考虑的两个样本的相对接近。
    计算Bhattacharyya系数涉及集成的基本形式的两个样本的重叠的时间间隔的值的两个样本被分裂成一个选定的分区数,并且在每个分区中的每个样品的成员的数量,在下面的公式中使用
    考虑样品a 和 b ,n是的分区数,并且被一个 和 b i的日分区中的样本数量的成员。更多介绍请参看:http://en.wikipedia.org/wiki/Bhattacharyya_coefficient
    • 8. 汉明距离(Hamming distance), 两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数。例如字符串“1111”与“1001”之间的汉明距离为2。应用:信息编码(为了增强容错性,应使得编码间的最小汉明距离尽可能大)。
    或许,你还没明白我再说什么,不急,看下上篇blog中第78题的第3小题整理的一道面试题目,便一目了然了。如下图所示:
    //动态规划:  
      
    //f[i,j]表示s[0...i]与t[0...j]的最小编辑距离。  
    f[i,j] = min { f[i-1,j]+1,  f[i,j-1]+1,  f[i-1,j-1]+(s[i]==t[j]?0:1) }  
      
    //分别表示:添加1个,删除1个,替换1个(相同就不用替换)。 
        与此同时,面试官还可以继续问下去:那么,请问,如何设计一个比较两篇文章相似性的算法?(这个问题的讨论可以看看这里:http://t.cn/zl82CAH,及这里关于simhash算法的介绍:http://www.cnblogs.com/linecong/archive/2010/08/28/simhash.html),接下来,便引出了下文关于夹角余弦的讨论。
    上篇blog中第78题的第3小题给出了多种方法,读者可以参看之。同时,程序员编程艺术系列第二十八章将详细阐述这个问题)
    • 9. 夹角余弦(Cosine) 几何中夹角余弦可用来衡量两个向量方向的差异,机器学习中借用这一概念来衡量样本向量之间的差异。

    (1)在二维空间中向量A(x1,y1)与向量B(x2,y2)的夹角余弦公式:

    (2) 两个n维样本点a(x11,x12,…,x1n)和b(x21,x22,…,x2n)的夹角余弦

           

    类似的,对于两个n维样本点a(x11,x12,…,x1n)和b(x21,x22,…,x2n),可以使用类似于夹角余弦的概念来衡量它们间的相似程度,即:       

    夹角余弦取值范围为[-1,1]。夹角余弦越大表示两个向量的夹角越小,夹角余弦越小表示两向量的夹角越大。当两个向量的方向重合时夹角余弦取最大值1,当两个向量的方向完全相反夹角余弦取最小值-1。 

    • 10. 杰卡德相似系数(Jaccard similarity coefficient)
    (1) 杰卡德相似系数       
    两个集合A和B的交集元素在A,B的并集中所占的比例,称为两个集合的杰卡德相似系数,用符号J(A,B)表示。 
     
    杰卡德相似系数是衡量两个集合的相似度一种指标。
    (2) 杰卡德距离       
    与杰卡德相似系数相反的概念是杰卡德距离(Jaccard distance)。
    杰卡德距离可用如下公式表示:  
    杰卡德距离用两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。
    (3) 杰卡德相似系数与杰卡德距离的应用      
    可将杰卡德相似系数用在衡量样本的相似度上。
    举例:样本A与样本B是两个n维向量,而且所有维度的取值都是0或1,例如:A(0111)和B(1011)。我们将样本看成是一个集合,1表示集合包含该元素,0表示集合不包含该元素。
    M11 :样本A与B都是1的维度的个数
    M01:样本A是0,样本B是1的维度的个数
    M10:样本A是1,样本B是0 的维度的个数
    M00:样本A与B都是0的维度的个数
    依据上文给的杰卡德相似系数及杰卡德距离的相关定义,样本A与B的杰卡德相似系数J可以表示为:
    这里M11+M01+M10可理解为A与B的并集的元素个数,而M11是A与B的交集的元素个数。而样本A与B的杰卡德距离表示为J':
     
    • 11.皮尔逊系数(Pearson Correlation Coefficient)
        在具体阐述皮尔逊相关系数之前,有必要解释下什么是相关系数 ( Correlation coefficient )与相关距离(Correlation distance)。
        相关系数 ( Correlation coefficient )的定义是:

    (其中,E为数学期望或均值,D为方差,D开根号为标准差,E{ [X-E(X)] [Y-E(Y)]}称为随机变量X与Y的协方差,记为Cov(X,Y),即Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},而两个变量之间的协方差和标准差的商则称为随机变量X与Y的相关系数,记为)

       相关系数衡量随机变量X与Y相关程度的一种方法,相关系数的取值范围是[-1,1]。相关系数的绝对值越大,则表明X与Y相关度越高。当X与Y线性相关时,相关系数取值为1(正线性相关)或-1(负线性相关)。
        具体的,如果有两个变量:X、Y,最终计算出的相关系数的含义可以有如下理解:
    1. 当相关系数为0时,X和Y两变量无关系。
    2. 当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。
    3. 当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。
       相关距离的定义是:
     
    OK,接下来,咱们来重点了解下皮尔逊相关系数。
        在统计学中,皮尔逊积矩相关系数(英语:Pearson product-moment correlation coefficient,又称作 PPMCC或PCCs, 用r表示)用于度量两个变量X和Y之间的相关(线性相关),其值介于-1与1之间。

    通常情况下通过以下取值范围判断变量的相关强度:
    相关系数     0.8-1.0     极强相关
                     0.6-0.8     强相关
                     0.4-0.6     中等程度相关
                     0.2-0.4     弱相关
                     0.0-0.2     极弱相关或无相关

    在自然科学领域中,该系数广泛用于度量两个变量之间的相关程度。它是由卡尔·皮尔逊从弗朗西斯·高尔顿在19世纪80年代提出的一个相似却又稍有不同的想法演变而来的。这个相关系数也称作“皮尔森相关系数r”。
    (1)皮尔逊系数的定义
    两个变量之间的皮尔逊相关系数定义为两个变量之间的协方差和标准差的商:
    以上方程定义了总体相关系数, 一般表示成希腊字母ρ(rho)。基于样本对协方差和方差进行估计,可以得到样本标准差, 一般表示成r:
    一种等价表达式的是表示成标准分的均值。基于(Xi, Yi)的样本点,样本皮尔逊系数是

                   其中 及 ,分别是标准分、样本平均值和样本标准差。
     
    或许上面的讲解令你头脑混乱不堪,没关系,我换一种方式讲解,如下:

    假设有两个变量X、Y,那么两变量间的皮尔逊相关系数可通过以下公式计算:

     

    • 公式一:
    注:勿忘了上面说过,“皮尔逊相关系数定义为两个变量之间的协方差和标准差的商”,其中标准差的计算公式为:
    • 公式二:
    • 公式三:
    • 公式四:

     

    以上列出的四个公式等价,其中E是数学期望,cov表示协方差,N表示变量取值的个数。

    (2)皮尔逊相关系数的适用范围
    当两个变量的标准差都不为零时,相关系数才有定义,皮尔逊相关系数适用于:
    1. 两个变量之间是线性关系,都是连续数据。
    2. 两个变量的总体是正态分布,或接近正态的单峰分布。
    3. 两个变量的观测值是成对的,每对观测值之间相互独立。
    (3)如何理解皮尔逊相关系数

    rubyist:皮尔逊相关系数理解有两个角度

    其一, 按照高中数学水平来理解, 它很简单, 可以看做将两组数据首先做Z分数处理之后, 然后两组数据的乘积和除以样本数,Z分数一般代表正态分布中, 数据偏离中心点的距离.等于变量减掉平均数再除以标准差.(就是高考的标准分类似的处理)

    样本标准差则等于变量减掉平均数的平方和,再除以样本数,最后再开方,也就是说,方差开方即为标准差,样本标准差计算公式为:

    所以, 根据这个最朴素的理解,我们可以将公式依次精简为:

    其二, 按照大学的线性数学水平来理解, 它比较复杂一点,可以看做是两组数据的向量夹角的余弦。下面是关于此皮尔逊系数的几何学的解释,先来看一幅图,如下所示:

     

    回归直线: y=gx(x) [红色] 和 x=gy(y) [蓝色]
    如上图,对于没有中心化的数据, 相关系数与两条可能的回归线y=gx(x) 和 x=gy(y) 夹角的余弦值一致。
     
    对于没有中心化的数据 (也就是说, 数据移动一个样本平均值以使其均值为0), 相关系数也可以被视作由两个随机变量 向量 夹角 的 余弦值(见下方)。
     
    举个例子,例如,有5个国家的国民生产总值分别为 10, 20, 30, 50 和 80 亿美元。 假设这5个国家 (顺序相同) 的贫困百分比分别为 11%, 12%, 13%, 15%, and 18% 。 令 x 和 y 分别为包含上述5个数据的向量: x = (1, 2, 3, 5, 8) 和 y = (0.11, 0.12, 0.13, 0.15, 0.18)。
    利用通常的方法计算两个向量之间的夹角  (参见 数量积), 未中心化 的相关系数是:
     

     

    我们发现以上的数据特意选定为完全相关: y = 0.10 + 0.01 x。 于是,皮尔逊相关系数应该等于1。将数据中心化 (通过E(x) = 3.8移动 x 和通过 E(y) = 0.138 移动 y ) 得到 x = (−2.8, −1.8, −0.8, 1.2, 4.2) 和 y = (−0.028, −0.018, −0.008, 0.012, 0.042), 从中

    (4)皮尔逊相关的约束条件

    从以上解释, 也可以理解皮尔逊相关的约束条件:

    • 1 两个变量间有线性关系
    • 2 变量是连续变量
    • 3 变量均符合正态分布,且二元分布也符合正态分布
    • 4 两变量独立

    在实践统计中,一般只输出两个系数,一个是相关系数,也就是计算出来的相关系数大小,在-1到1之间;另一个是独立样本检验系数,用来检验样本一致性。

         简单说来,各种“距离”的应用场景简单概括为,空间:欧氏距离,路径:曼哈顿距离,国际象棋国王:切比雪夫距离,以上三种的统一形式:闵可夫斯基距离,加权:标准化欧氏距离,排除量纲和依存:马氏距离,向量差距:夹角余弦,编码差别:汉明距离,集合近似度:杰卡德类似系数与距离,相关:相关系数与相关距离。
     

    1.3、K值的选择

        除了上述1.2节如何定义邻居的问题之外,还有一个选择多少个邻居,即K值定义为多大的问题。不要小看了这个K值选择问题,因为它对K近邻算法的结果会产生重大影响。如李航博士的一书「统计学习方法」上所说:

    1. 如果选择较小的K值,就相当于用较小的领域中的训练实例进行预测,“学习”近似误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学习”的估计误差会增大,换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
    2. 如果选择较大的K值,就相当于用较大领域中的训练实例进行预测,其优点是可以减少学习的估计误差,但缺点是学习的近似误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误,且K值的增大就意味着整体的模型变得简单。
    3. K=N,则完全不足取,因为此时无论输入实例是什么,都只是简单的预测它属于在训练实例中最多的累,模型过于简单,忽略了训练实例中大量有用信息。
        在实际应用中,K值一般取一个比较小的数值,例如采用交叉验证法(简单来说,就是一部分样本做训练集,一部分做测试集)来选择最优的K值。

     

    第二部分、K近邻算法的实现:KD树

    2.0、背景

        之前blog内曾经介绍过SIFT特征匹配算法,特征点匹配和数据库查、图像检索本质上是同一个问题,都可以归结为一个通过距离函数在高维矢量之间进行相似性检索的问题,如何快速而准确地找到查询点的近邻,不少人提出了很多高维空间索引结构和近似查询的算法。

        一般说来,索引结构中相似性查询有两种基本的方式:

    1. 一种是范围查询,范围查询时给定查询点和查询距离阈值,从数据集中查找所有与查询点距离小于阈值的数据
    2. 另一种是K近邻查询,就是给定查询点及正整数K,从数据集中找到距离查询点最近的K个数据,当K=1时,它就是最近邻查询。

        同样,针对特征点匹配也有两种方法:

    • 最容易的办法就是线性扫描,也就是我们常说的穷举搜索,依次计算样本集E中每个样本到输入实例点的距离,然后抽取出计算出来的最小距离的点即为最近邻点。此种办法简单直白,但当样本集或训练集很大时,它的缺点就立马暴露出来了,举个例子,在物体识别的问题中,可能有数千个甚至数万个SIFT特征点,而去一一计算这成千上万的特征点与输入实例点的距离,明显是不足取的。
    • 另外一种,就是构建数据索引,因为实际数据一般都会呈现簇状的聚类形态,因此我们想到建立数据索引,然后再进行快速匹配。索引树是一种树结构索引方法,其基本思想是对搜索空间进行层次划分。根据划分的空间是否有混叠可以分为Clipping和Overlapping两种。前者划分空间没有重叠,其代表就是k-d树;后者划分空间相互有交叠,其代表为R树。

        而关于R树本blog内之前已有介绍(同时,关于基于R树的最近邻查找,还可以看下这篇文章:http://blog.sina.com.cn/s/blog_72e1c7550101dsc3.html),本文着重介绍k-d树。

        1975年,来自斯坦福大学的Jon Louis Bentley在ACM杂志上发表的一篇论文:Multidimensional Binary Search Trees Used for Associative Searching 中正式提出和阐述的了如下图形式的把空间划分为多个部分的k-d树。

     

     

    2.1、什么是KD树

        Kd-树是K-dimension tree的缩写,是对数据点在k维空间(如二维(x,y),三维(x,y,z),k维(x1,y,z..))中划分的一种数据结构,主要应用于多维空间关键数据的搜索(如:范围搜索和最近邻搜索)。本质上说,Kd-树就是一种平衡二叉树。

        首先必须搞清楚的是,k-d树是一种空间划分树,说白了,就是把整个空间划分为特定的几个部分,然后在特定空间的部分内进行相关搜索操作。想像一个三维(多维有点为难你的想象力了)空间,kd树按照一定的划分规则把这个三维空间划分了多个空间,如下图所示:

     

    2.2、KD树的构建

        kd树构建的伪代码如下图所示(伪代码来自《图像局部不变特性特征与描述》王永明 王贵锦 编著):

     

     

        再举一个简单直观的实例来介绍k-d树构建算法。假设有6个二维数据点{(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)},数据点位于二维空间内,如下图所示。为了能有效的找到最近邻,k-d树采用分而治之的思想,即将整个空间划分为几个小部分,首先,粗黑线将空间一分为二,然后在两个子空间中,细黑直线又将整个空间划分为四部分,最后虚黑直线将这四部分进一步划分。

     

        6个二维数据点{(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)}构建kd树的具体步骤为:

    1. 确定:split域=x。具体是:6个数据点在x,y维度上的数据方差分别为39,28.63,所以在x轴上方差更大,故split域值为x;
    2. 确定:Node-data = (7,2)。具体是:根据x维上的值将数据排序,6个数据的中值(所谓中值,即中间大小的值)为7,所以Node-data域位数据点(7,2)。这样,该节点的分割超平面就是通过(7,2)并垂直于:split=x轴的直线x=7;
    3. 确定:左子空间和右子空间。具体是:分割超平面x=7将整个空间分为两部分:x<=7的部分为左子空间,包含3个节点={(2,3),(5,4),(4,7)};另一部分为右子空间,包含2个节点={(9,6),(8,1)};
        如上算法所述,kd树的构建是一个递归过程,我们对左子空间和右子空间内的数据重复根节点的过程就可以得到一级子节点(5,4)和(9,6),同时将空间和数据集进一步细分,如此往复直到空间中只包含一个数据点。

        与此同时,经过对上面所示的空间划分之后,我们可以看出,点(7,2)可以为根结点,从根结点出发的两条红粗斜线指向的(5,4)和(9,6)则为根结点的左右子结点,而(2,3),(4,7)则为(5,4)的左右孩子(通过两条细红斜线相连),最后,(8,1)为(9,6)的左孩子(通过细红斜线相连)。如此,便形成了下面这样一棵k-d树:

     

     

     

     

        k-d树的数据结构

     

        针对上表给出的kd树的数据结构,转化成具体代码如下所示(注,本文以下代码分析基于Rob Hess维护的sift库)

    /** a node in a k-d tree */
    struct kd_node
    {
    	int ki;                      /**< partition key index *///关键点直方图方差最大向量系列位置
    	double kv;                   /**< partition key value *///直方图方差最大向量系列中最中间模值
    	int leaf;                    /**< 1 if node is a leaf, 0 otherwise */
    	struct feature* features;    /**< features at this node */
    	int n;                       /**< number of features */
    	struct kd_node* kd_left;     /**< left child */
    	struct kd_node* kd_right;    /**< right child */
    };

        也就是说,如之前所述,kd树中,kd代表k-dimension,每个节点即为一个k维的点。每个非叶节点可以想象为一个分割超平面,用垂直于坐标轴的超平面将空间分为两个部分,这样递归的从根节点不停的划分,直到没有实例为止。经典的构造k-d tree的规则如下:

    1. 随着树的深度增加,循环的选取坐标轴,作为分割超平面的法向量。对于3-d tree来说,根节点选取x轴,根节点的孩子选取y轴,根节点的孙子选取z轴,根节点的曾孙子选取x轴,这样循环下去。
    2. 每次均为所有对应实例的中位数的实例作为切分点,切分点作为父节点,左右两侧为划分的作为左右两子树。

        对于n个实例的k维数据来说,建立kd-tree的时间复杂度为O(k*n*logn)。

     

        以下是构建k-d树的代码:

    struct kd_node* kdtree_build( struct feature* features, int n )
    {
    	struct kd_node* kd_root;
    
    	if( ! features  ||  n <= 0 )
    	{
    		fprintf( stderr, "Warning: kdtree_build(): no features, %s, line %d\n",
    				__FILE__, __LINE__ );
    		return NULL;
    	}
    
    	//初始化
    	kd_root = kd_node_init( features, n );  //n--number of features,initinalize root of tree.
    	expand_kd_node_subtree( kd_root );  //kd tree expand
    
    	return kd_root;
    }

        上面的涉及初始化操作的两个函数kd_node_init,及expand_kd_node_subtree代码分别如下所示:

    static struct kd_node* kd_node_init( struct feature* features, int n )
    {                                     //n--number of features
    	struct kd_node* kd_node;
    
    	kd_node = (struct kd_node*)(malloc( sizeof( struct kd_node ) ));
    	memset( kd_node, 0, sizeof( struct kd_node ) ); //0填充
    	kd_node->ki = -1; //???????
    	kd_node->features = features;
    	kd_node->n = n;
    
    	return kd_node;
    }
    static void expand_kd_node_subtree( struct kd_node* kd_node )
    {
    	/* base case: leaf node */
    	if( kd_node->n == 1  ||  kd_node->n == 0 )
    	{   //叶节点               //伪叶节点
    		kd_node->leaf = 1;
    		return;
    	}
    
    	assign_part_key( kd_node ); //get ki,kv
    	partition_features( kd_node ); //creat left and right children,特征点ki位置左树比右树模值小,kv作为分界模值
                                     //kd_node中关键点已经排序
    	if( kd_node->kd_left )
    		expand_kd_node_subtree( kd_node->kd_left );
    	if( kd_node->kd_right )
    		expand_kd_node_subtree( kd_node->kd_right );
    }

        构建完kd树之后,如今进行最近邻搜索呢?从下面的动态gif图中,你是否能看出些许端倪呢?

    1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消1338711447_6884.gifuploading.4e448015.gif转存失败重新上传取消

        k-d树算法可以分为两大部分,除了上部分有关k-d树本身这种数据结构建立的算法,另一部分是在建立的k-d树上各种诸如插入,删除,查找(最邻近查找)等操作涉及的算法。下面,咱们依次来看kd树的插入、删除、查找操作。

     

    2.3、KD树的插入

     

        元素插入到一个K-D树的方法和二叉检索树类似。本质上,在偶数层比较x坐标值,而在奇数层比较y坐标值。当我们到达了树的底部,(也就是当一个空指针出现),我们也就找到了结点将要插入的位置。生成的K-D树的形状依赖于结点插入时的顺序。给定N个点,其中一个结点插入和检索的平均代价是O(log2N)。

        下面4副图(来源:中国地质大学电子课件)说明了插入顺序为(a) Chicago, (b) Mobile, (c) Toronto, and (d) Buffalo,建立空间K-D树的示例:

     

     

     

     

        应该清楚,这里描述的插入过程中,每个结点将其所在的平面分割成两部分。因比,Chicago 将平面上所有结点分成两部分,一部分所有的结点x坐标值小于35,另一部分结点的x坐标值大于或等于35。同样Mobile将所有x坐标值大于35的结点以分成两部分,一部分结点的Y坐标值是小于10,另一部分结点的Y坐标值大于或等于10。后面的Toronto、Buffalo也按照一分为二的规则继续划分。

    2.4、KD树的删除

        KD树的删除可以用递归程序来实现。我们假设希望从K-D树中删除结点(a,b)。如果(a,b)的两个子树都为空,则用空树来代替(a,b)。否则,在(a,b)的子树中寻找一个合适的结点来代替它,譬如(c,d),则递归地从K-D树中删除(c,d)。一旦(c,d)已经被删除,则用(c,d)代替(a,b)。假设(a,b)是一个X识别器,那么,它得替代节点要么是(a,b)左子树中的X坐标最大值的结点,要么是(a,b)右子树中x坐标最小值的结点。
        也就是说,跟普通二叉树(包括如下图所示的红黑树)结点的删除是同样的思想:用被删除节点A的左子树的最右节点或者A的右子树的最左节点作为替代A的节点(比如,下图红黑树中,若要删除根结点26,第一步便是用23或28取代根结点26)。
       当(a,b)的右子树为空时,找到(a,b)左子树中具有x坐标最大的结点,譬如(c,d),将(a,b)的左子树放到(c,d)的右子树中,且在树中从它的上一层递归地应用删除过程(也就是(a,b)的左子树) 。
        下面来举一个实际的例子(来源:中国地质大学电子课件,原课件错误已经在下文中订正),如下图所示,原始图像及对应的kd树,现在要删除图中的A结点,请看一系列删除步骤:
        要删除上图中结点A,选择结点A的右子树中X坐标值最小的结点,这里是C,C成为根,如下图:
         从C的右子树中找出一个结点代替先前C的位置,
        这里是D,并将D的左子树转为它的右子树,D代替先前C的位置,如下图:
        在D的新右子树中,找X坐标最小的结点,这里为H,H代替D的位置,
        在D的右子树中找到一个Y坐标最小的值,这里是I,将I代替原先H的位置,从而A结点从图中顺利删除,如下图所示:
        从一个K-D树中删除结点(a,b)的问题变成了在(a,b)的子树中寻找x坐标为最小的结点。不幸的是寻找最小x坐标值的结点比二叉检索树中解决类似的问题要复杂得多。特别是虽然最小x坐标值的结点一定在x识别器的左子树中,但它同样可在y识别器的两个子树中。因此关系到检索,且必须注意检索坐标,以使在每个奇数层仅检索2个子树中的一个。
        从K-D树中删除一个结点是代价很高的,很清楚删除子树的根受到子树中结点个数的限制。用TPL(T)表示树T总的路径长度。可看出树中子树大小的总和为TPL(T)+N。 以随机方式插入N个点形成树的TPL是O(N*log2N),这就意味着从一个随机形成的K-D树中删除一个随机选取的结点平均代价的上界是O(log2N) 。

    2.5、KD树的最近邻搜索算法

        现实生活中有许多问题需要在多维数据的快速分析和快速搜索,对于这个问题最常用的方法是所谓的kd树。在k-d树中进行数据的查找也是特征匹配的重要环节,其目的是检索在k-d树中与查询点距离最近的数据点。在一个N维的笛卡儿空间在两个点之间的距离是由下述公式确定:

     

    2.5.1、k-d树查询算法的伪代码

     

        k-d树查询算法的伪代码如下所示:

     

    算法:k-d树最邻近查找
    输入:Kd,    //k-d tree类型
         target  //查询数据点
    输出:nearest, //最邻近数据点
         dist      //最邻近数据点和查询点间的距离
    
    1. If Kd为NULL,则设dist为infinite并返回
    2. //进行二叉查找,生成搜索路径
       Kd_point = &Kd;                   //Kd-point中保存k-d tree根节点地址
       nearest = Kd_point -> Node-data;  //初始化最近邻点
    
       while(Kd_point)
         push(Kd_point)到search_path中; //search_path是一个堆栈结构,存储着搜索路径节点指针
    
          If Dist(nearest,target) > Dist(Kd_point -> Node-data,target)
           nearest  = Kd_point -> Node-data;    //更新最近邻点
           Min_dist = Dist(Kd_point,target);  //更新最近邻点与查询点间的距离  ***/
         s = Kd_point -> split;                       //确定待分割的方向
    
         If target[s] <= Kd_point -> Node-data[s]     //进行二叉查找
           Kd_point = Kd_point -> left;
         else
           Kd_point = Kd_point ->right;
       End while
    
    3. //回溯查找
       while(search_path != NULL)
         back_point = 从search_path取出一个节点指针;   //从search_path堆栈弹栈
         s = back_point -> split;                      //确定分割方向
    
         If Dist(target[s],back_point -> Node-data[s]) < Max_dist   //判断还需进入的子空间
           If target[s] <= back_point -> Node-data[s]
             Kd_point = back_point -> right;  //如果target位于左子空间,就应进入右子空间
           else
             Kd_point = back_point -> left;    //如果target位于右子空间,就应进入左子空间
           将Kd_point压入search_path堆栈;
    
         If Dist(nearest,target) > Dist(Kd_Point -> Node-data,target)
           nearest  = Kd_point -> Node-data;                 //更新最近邻点
           Min_dist = Dist(Kd_point -> Node-data,target);  //更新最近邻点与查询点间的距离的
       End while 

        读者来信点评@yhxyhxyhx,在“将Kd_point压入search_path堆栈;”这行代码后,应该是调到步骤2再往下走二分搜索的逻辑一直到叶结点,我写了一个递归版本的二维kd tree的搜索函数你对比的看看:

    void innerGetClosest(NODE* pNode, PT point, PT& res, int& nMinDis)
    {
    	if (NULL == pNode)
    		return;
    	int nCurDis = abs(point.x - pNode->pt.x) + abs(point.y - pNode->pt.y);
    	if (nMinDis < 0 || nCurDis < nMinDis)
    	{
    		nMinDis = nCurDis;
    		res = pNode->pt;
    	}
    	if (pNode->splitX && point.x <= pNode->pt.x || !pNode->splitX && point.y <= pNode->pt.y)
    		innerGetClosest(pNode->pLft, point, res, nMinDis);
    	else
    		innerGetClosest(pNode->pRgt, point, res, nMinDis);
    	int rang = pNode->splitX ? abs(point.x - pNode->pt.x) : abs(point.y - pNode->pt.y);
    	if (rang > nMinDis)
    		return;
    	NODE* pGoInto = pNode->pLft;
    	if (pNode->splitX && point.x > pNode->pt.x || !pNode->splitX && point.y > pNode->pt.y)
    		pGoInto = pNode->pRgt;
    	innerGetClosest(pGoInto, point, res, nMinDis);
    }

     

        下面,以两个简单的实例(例子来自图像局部不变特性特征与描述一书)来描述最邻近查找的基本思路。

    2.5.2、举例:查询点(2.1,3.1)

        星号表示要查询的点(2.1,3.1)。通过二叉搜索,顺着搜索路径很快就能找到最邻近的近似点,也就是叶子节点(2,3)。而找到的叶子节点并不一定就是最邻近的,最邻近肯定距离查询点更近,应该位于以查询点为圆心且通过叶子节点的圆域内。为了找到真正的最近邻,还需要进行相关的‘回溯'操作。也就是说,算法首先沿搜索路径反向查找是否有距离查询点更近的数据点。

        以查询(2.1,3.1)为例:

     

    1. 二叉树搜索:先从(7,2)点开始进行二叉查找,然后到达(5,4),最后到达(2,3),此时搜索路径中的节点为<(7,2),(5,4),(2,3)>,首先以(2,3)作为当前最近邻点,计算其到查询点(2.1,3.1)的距离为0.1414,
    2. 回溯查找:在得到(2,3)为查询点的最近点之后,回溯到其父节点(5,4),并判断在该父节点的其他子节点空间中是否有距离查询点更近的数据点。以(2.1,3.1)为圆心,以0.1414为半径画圆,如下图所示。发现该圆并不和超平面y = 4交割,因此不用进入(5,4)节点右子空间中(图中灰色区域)去搜索;
    3. 最后,再回溯到(7,2),以(2.1,3.1)为圆心,以0.1414为半径的圆更不会与x = 7超平面交割,因此不用进入(7,2)右子空间进行查找。至此,搜索路径中的节点已经全部回溯完,结束整个搜索,返回最近邻点(2,3),最近距离为0.1414。

    2.5.3、举例:查询点2,4.5

        一个复杂点了例子如查找点为(2,4.5),具体步骤依次如下:

     

    1. 同样先进行二叉查找,先从(7,2)查找到(5,4)节点,在进行查找时是由y = 4为分割超平面的,由于查找点为y值为4.5,因此进入右子空间查找到(4,7),形成搜索路径<(7,2),(5,4),(4,7)>,但(4,7)与目标查找点的距离为3.202,而(5,4)与查找点之间的距离为3.041,所以(5,4)为查询点的最近点;
    2. 以(2,4.5)为圆心,以3.041为半径作圆,如下图所示。可见该圆和y = 4超平面交割,所以需要进入(5,4)左子空间进行查找,也就是将(2,3)节点加入搜索路径中得<(7,2),(2,3)>;于是接着搜索至(2,3)叶子节点,(2,3)距离(2,4.5)比(5,4)要近,所以最近邻点更新为(2,3),最近距离更新为1.5;
    3. 回溯查找至(5,4),直到最后回溯到根结点(7,2)的时候,以(2,4.5)为圆心1.5为半径作圆,并不和x = 7分割超平面交割,如下图所示。至此,搜索路径回溯完,返回最近邻点(2,3),最近距离1.5。

        上述两次实例表明,当查询点的邻域与分割超平面两侧空间交割时,需要查找另一侧子空间,导致检索过程复杂,效率下降。

     

        一般来讲,最临近搜索只需要检测几个叶子结点即可,如下图所示:  

     

     

     

     

        但是,如果当实例点的分布比较糟糕时,几乎要遍历所有的结点,如下所示:

     

        研究表明N个节点的K维k-d树搜索过程时间复杂度为:tworst=O(kN1-1/k)。

        同时,以上为了介绍方便,讨论的是二维或三维情形。但在实际的应用中,如SIFT特征矢量128维,SURF特征矢量64维,维度都比较大,直接利用k-d树快速检索(维数不超过20)的性能急剧下降,几乎接近贪婪线性扫描。假设数据集的维数为D,一般来说要求数据的规模N满足N»2D,才能达到高效的搜索。所以这就引出了一系列对k-d树算法的改进:BBF算法,和一系列M树、VP树、MVP树等高维空间索引树(下文2.6节kd树近邻搜索算法的改进:BBF算法,与2.7节球树、M树、VP树、MVP树)。

    2.6、kd树近邻搜索算法的改进:BBF算法

        咱们顺着上一节的思路,参考《统计学习方法》一书上的内容,再来总结下kd树的最近邻搜索算法:

    输入:以构造的kd树,目标点x;
    输出:x 的最近邻
    算法步骤如下:

    1. 在kd树种找出包含目标点x的叶结点:从根结点出发,递归地向下搜索kd树。若目标点x当前维的坐标小于切分点的坐标,则移动到左子结点,否则移动到右子结点,直到子结点为叶结点为止。
    2. 以此叶结点为“当前最近点”。
    3. 递归的向上回溯,在每个结点进行以下操作:
      (a)如果该结点保存的实例点比当前最近点距离目标点更近,则更新“当前最近点”,也就是说以该实例点为“当前最近点”。
      (b)当前最近点一定存在于该结点一个子结点对应的区域,检查子结点的父结点的另一子结点对应的区域是否有更近的点。具体做法是,检查另一子结点对应的区域是否以目标点位球心,以目标点与“当前最近点”间的距离为半径的圆或超球体相交:
      如果相交,可能在另一个子结点对应的区域内存在距目标点更近的点,移动到另一个子结点,接着,继续递归地进行最近邻搜索;
      如果不相交,向上回溯。
    4. 回退到根结点时,搜索结束,最后的“当前最近点”即为x 的最近邻点。

        如果实例点是随机分布的,那么kd树搜索的平均计算复杂度是O(logN),这里的N是训练实例树。所以说,kd树更适用于训练实例数远大于空间维数时的k近邻搜索,当空间维数接近训练实例数时,它的效率会迅速下降,一降降到“解放前”:线性扫描的速度。

        也正因为上述k最近邻搜索算法的第4个步骤中的所述:“回退到根结点时,搜索结束”,每个最近邻点的查询比较完成过程最终都要回退到根结点而结束,而导致了许多不必要回溯访问和比较到的结点,这些多余的损耗在高维度数据查找的时候,搜索效率将变得相当之地下,那有什么办法可以改进这个原始的kd树最近邻搜索算法呢?

        从上述标准的kd树查询过程可以看出其搜索过程中的“回溯”是由“查询路径”决定的,并没有考虑查询路径上一些数据点本身的一些性质。一个简单的改进思路就是将“查询路径”上的结点进行排序,如按各自分割超平面(也称bin)与查询点的距离排序,也就是说,回溯检查总是从优先级最高(Best Bin)的树结点开始。

        针对此BBF机制,读者Feng&书童点评道:

    1. 在某一层,分割面是第ki维,分割值是kv,那么 abs(q[ki]-kv) 就是没有选择的那个分支的优先级,也就是计算的是那一维上的距离;
    2. 同时,从优先队列里面取节点只在某次搜索到叶节点后才发生,计算过距离的节点不会出现在队列的,比如1~10这10个节点,你第一次搜索到叶节点的路径是1-5-7,那么1,5,7是不会出现在优先队列的。换句话说,优先队列里面存的都是查询路径上节点对应的相反子节点,比如:搜索左子树,就把对应这一层的右节点存进队列。

        如此,就引出了本节要讨论的kd树最近邻搜索算法的改进:BBF(Best-Bin-First)查询算法,它是由发明sift算法的David Lowe在1997的一篇文章中针对高维数据提出的一种近似算法,此算法能确保优先检索包含最近邻点可能性较高的空间,此外,BBF机制还设置了一个运行超时限定。采用了BBF查询机制后,kd树便可以有效的扩展到高维数据集上。

        伪代码如下图所示(图取自图像局部不变特性特征与描述一书):

     

        还是以上面的查询(2,4.5)为例,搜索的算法流程为:

    1. 将(7,2)压人优先队列中;
    2. 提取优先队列中的(7,2),由于(2,4.5)位于(7,2)分割超平面的左侧,所以检索其左子结点(5,4)。同时,根据BBF机制”搜索左/右子树,就把对应这一层的兄弟结点即右/左结点存进队列”,将其(5,4)对应的兄弟结点即右子结点(9,6)压人优先队列中,此时优先队列为{(9,6)},最佳点为(7,2);然后一直检索到叶子结点(4,7),此时优先队列为{(2,3),(9,6)},“最佳点”则为(5,4);
    3. 提取优先级最高的结点(2,3),重复步骤2,直到优先队列为空。

        如你在下图所见到的那样(话说,用鼠标在图片上写字着实不好写):

     

     

    2.7、球树、M树、VP树、MVP树

    2.7.1、球树

     

        咱们来针对上文内容总结回顾下,针对下面这样一棵kd树:

     

     

        现要找它的最近邻。

        通过上文2.5节,总结来说,我们已经知道:

    1、为了找到一个给定目标点的最近邻,需要从树的根结点开始向下沿树找出目标点所在的区域,如下图所示,给定目标点,用星号标示,我们似乎一眼看出,有一个点离目标点最近,因为它落在以目标点为圆心以较小长度为半径的虚线圆内,但为了确定是否可能还村庄一个最近的近邻,我们会先检查叶节点的同胞结点,然叶节点的同胞结点在图中所示的阴影部分,虚线圆并不与之相交,所以确定同胞叶结点不可能包含更近的近邻。

     

     

    2、于是我们回溯到父节点,并检查父节点的同胞结点,父节点的同胞结点覆盖了图中所有横线X轴上的区域。因为虚线圆与右上方的矩形(KD树把二维平面划分成一个一个矩形)相交...

        如上,我们看到,KD树是可用于有效寻找最近邻的一个树结构,但这个树结构其实并不完美,当处理不均匀分布的数据集时便会呈现出一个基本冲突:既邀请树有完美的平衡结构,又要求待查找的区域近似方形,但不管是近似方形,还是矩形,甚至正方形,都不是最好的使用形状,因为他们都有角。

     

            

        什么意思呢?就是说,在上图中,如果黑色的实例点离目标点星点再远一点,那么势必那个虚线圆会如红线所示那样扩大,以致与左上方矩形的右下角相交,既然相交了,那么势必又必须检查这个左上方矩形,而实际上,最近的点离星点的距离很近,检查左上方矩形区域已是多余。于此我们看见,KD树把二维平面划分成一个一个矩形,但矩形区域的角却是个难以处理的问题。

        解决的方案就是使用如下图所示的球树:

     

    先从球中选择一个离球的中心最远的点,然后选择第二个点离第一个点最远,将球中所有的点分配到离这两个聚类中心最近的一个上,然后计算每个聚类的中心,以及聚类能够包含它所有数据点所需的最小半径。这种方法的优点是分裂一个包含n个殊绝点的球的成本只是随n呈线性增加。

     

     

        使用球树找出给定目标点的最近邻方法是,首先自上而下贯穿整棵树找出包含目标点所在的叶子,并在这个球里找出与目标点最靠近的点,这将确定出目标点距离它的最近邻点的一个上限值,然后跟KD树查找一样,检查同胞结点,如果目标点到同胞结点中心的距离超过同胞结点的半径与当前的上限值之和,那么同胞结点里不可能存在一个更近的点;否则的话,必须进一步检查位于同胞结点以下的子树。

        如下图,目标点还是用一个星表示,黑色点是当前已知的的目标点的最近邻,灰色球里的所有内容将被排除,因为灰色球的中心点离的太远,所以它不可能包含一个更近的点,像这样,递归的向树的根结点进行回溯处理,检查所有可能包含一个更近于当前上限值的点的球。

     

     

        球树是自上而下的建立,和KD树一样,根本问题就是要找到一个好的方法将包含数据点集的球分裂成两个,在实践中,不必等到叶子结点只有两个胡数据点时才停止,可以采用和KD树一样的方法,一旦结点上的数据点打到预先设置的最小数量时,便可提前停止建树过程。

        也就是上面所述,先从球中选择一个离球的中心最远的点,然后选择第二个点离第一个点最远,将球中所有的点分配到离这两个聚类中心最近的一个上,然后计算每个聚类的中心,以及聚类能够包含它所有数据点所需的最小半径。这种方法的优点是分裂一个包含n个殊绝点的球的成本只是随n呈线性增加(注:本小节内容主要来自参考条目19:数据挖掘实用机器学习技术,[新西兰]Ian H.Witten 著,第4章4.7节)。

    2.7.2、VP树与MVP树简介

        高维特征向量的距离索引问题是基于内容的图像检索的一项关键技术,目前经常采用的解决办法是首先对高维特征空间做降维处理,然后采用包括四叉树、kd树、R树族等在内的主流多维索引结构,这种方法的出发点是:目前的主流多维索引结构在处理维数较低的情况时具有比较好的效率,但对于维数很高的情况则显得力不从心(即所谓的维数危机) 。

        实验结果表明当特征空间的维数超过20 的时候,效率明显降低,而可视化特征往往采用高维向量描述,一般情况下可以达到10^2的量级,甚至更高。在表示图像可视化特征的高维向量中各维信息的重要程度是不同的,通过降维技术去除属于次要信息的特征向量以及相关性较强的特征向量,从而降低特征空间的维数,这种方法已经得到了一些实际应用。

        然而这种方法存在不足之处采用降维技术可能会导致有效信息的损失,尤其不适合于处理特征空间中的特征向量相关性很小的情况。另外主流的多维索引结构大都针对欧氏空间,设计需要利用到欧氏空间的几何性质,而图像的相似性计算很可能不限于基于欧氏距离。这种情况下人们越来越关注基于距离的度量空间高维索引结构可以直接应用于高维向量相似性查询问题。

        度量空间中对象之间的距离度量只能利用三角不等式性质,而不能利用其他几何性质。向量空间可以看作由实数坐标串组成的特殊度量空间,目前针对度量空间的高维索引问题提出的索引结构有很多种大致可以作如下分类,如下图所示:

     

        

     

     

        其中,VP树和MVP树中特征向量的举例表示为:

     

     

         读者点评:

     

    1. UESTC_HN_AY_GUOBO:现在主要是在kdtree的基础上有了mtree或者mvptree,其实关键还是pivot的选择,以及度量空间中算法怎么减少距离计算;
    2. mandycool:mvp-tree,是利用三角形不等式来缩小搜索区域的,不过mvp-tree的目标稍有不同,查询的是到query点的距离小于某个值r的点;另外作者test的数据集只有20维,不知道上百维以后效果如何,而减少距离计算的一个思路是做embedding,通过不等式排除掉一部分点。

        更多内容请参见论文1:DIST ANCE-BASED INDEXING FOR HIGH-DIMENSIONAL METRIC SP ACES,作者:Tolga Bozkaya & Meral Ozsoyoglu,及论文2:基于度量空间高维索引结构VP-tree及MVP-tree的图像检索,王志强,甘国辉,程起敏。

        当然,如果你觉得上述论文还不够满足你胃口的话,这里有一大堆nearest neighbor algorithms相关的论文可供你看:http://scholar.google.com.hk/scholar?q=nearest+neighbor+algorithms&btnG=&hl=zh-CN&as_sdt=0&as_vis=1(其中,这篇可以看下:Spill-Trees,An investigation of practical approximate nearest neighbor algorithms)。

     

     

    第三部分、KD树的应用:SIFT+KD_BBF搜索算法

    3.1、SIFT特征匹配算法    

        之前本blog内阐述过图像特征匹配SIFT算法,写过五篇文章,这五篇文章分别为:

        不熟悉SIFT算法相关概念的可以看上述几篇文章,这里不再做赘述。与此同时,本文此部分也作为十五个经典算法研究系列里SIFT算法的九之四续。

        OK,我们知道,在sift算法中,给定两幅图片图片,若要做特征匹配,一般会先提取出图片中的下列相关属性作为特征点:

     

    /**
    Structure to represent an affine invariant image feature.  The fields
    x, y, a, b, c represent the affine region around the feature:
    
    a(x-u)(x-u) + 2b(x-u)(y-v) + c(y-v)(y-v) = 1
    */
    struct feature
    {
    	double x;                      /**< x coord */
    	double y;                      /**< y coord */
    	double a;                      /**< Oxford-type affine region parameter */
    	double b;                      /**< Oxford-type affine region parameter */
    	double c;                      /**< Oxford-type affine region parameter */
    	double scl;                    /**< scale of a Lowe-style feature */
    	double ori;                    /**< orientation of a Lowe-style feature */
    	int d;                         /**< descriptor length */
    	double descr[FEATURE_MAX_D];   /**< descriptor */
    	int type;                      /**< feature type, OXFD or LOWE */
    	int category;                  /**< all-purpose feature category */
    	struct feature* fwd_match;     /**< matching feature from forward image */
    	struct feature* bck_match;     /**< matching feature from backmward image */
    	struct feature* mdl_match;     /**< matching feature from model */
    	CvPoint2D64f img_pt;           /**< location in image */
    	CvPoint2D64f mdl_pt;           /**< location in model */
    	void* feature_data;            /**< user-definable data */
    	char dense;						/*表征特征点所处稠密程度*/
    };

        而后在sift.h文件中定义两个关键函数,这里,我们把它们称之为函数一,和函数二,如下所示:

     

    函数一的声明:

     

    extern int sift_features( IplImage* img, struct feature** feat );

     

    函数一的实现:

     

    int sift_features( IplImage* img, struct feature** feat )
    {
    	return _sift_features( img, feat, SIFT_INTVLS, SIFT_SIGMA, SIFT_CONTR_THR,
    							SIFT_CURV_THR, SIFT_IMG_DBL, SIFT_DESCR_WIDTH,
    							SIFT_DESCR_HIST_BINS );
    }

    从上述函数一的实现中,我们可以看到,它内部实际上调用的是这个函数:_sift_features(..),也就是下面马上要分析的函数二。

     

    函数二的声明:

     

    extern int _sift_features( IplImage* img, struct feature** feat, int intvls,
    						  double sigma, double contr_thr, int curv_thr,
    						  int img_dbl, int descr_width, int descr_hist_bins );

     

    函数二的实现:

    int _sift_features( IplImage* img, struct feature** feat, int intvls,
    				   double sigma, double contr_thr, int curv_thr,
    				   int img_dbl, int descr_width, int descr_hist_bins )
    {
    	IplImage* init_img;
    	IplImage*** gauss_pyr, *** dog_pyr;
    	CvMemStorage* storage;
    	CvSeq* features;
    	int octvs, i, n = 0,n0 = 0,n1 = 0,n2 = 0,n3 = 0,n4 = 0;
    	int start;
    
    	/* check arguments */
    	if( ! img )
    		fatal_error( "NULL pointer error, %s, line %d",  __FILE__, __LINE__ );
    
    	if( ! feat )
    		fatal_error( "NULL pointer error, %s, line %d",  __FILE__, __LINE__ );
    
    	/* build scale space pyramid; smallest dimension of top level is ~4 pixels */
    	start=GetTickCount();
    	init_img = create_init_img( img, img_dbl, sigma );
    	octvs = log( (float)(MIN( init_img->width, init_img->height )) ) / log((float)(2.0)) -5;
    	gauss_pyr = build_gauss_pyr( init_img, octvs, intvls, sigma );
    	dog_pyr = build_dog_pyr( gauss_pyr, octvs, intvls );
    	fprintf( stderr, " creat the pyramid use %d\n",GetTickCount()-start);
    
    	storage = cvCreateMemStorage( 0 );    //创建存储内存,0为默认64k
    	start=GetTickCount();
    	features = scale_space_extrema( dog_pyr, octvs, intvls, contr_thr,
    		curv_thr, storage );  //在DOG空间寻找极值点,确定关键点位置
    	fprintf( stderr, " find the extrum points in DOG use %d\n",GetTickCount()-start);
    
    	calc_feature_scales( features, sigma, intvls ); //计算关键点的尺度
    
    	if( img_dbl )
    		adjust_for_img_dbl( features );  //如果原始空间图扩大,特征点坐标就缩小
    	start=GetTickCount();
    	calc_feature_oris( features, gauss_pyr );  //在gaussian空间计算关键点的主方向和幅值
    	fprintf( stderr, " get the main oritation use %d\n",GetTickCount()-start);
    
    	start=GetTickCount();
    	compute_descriptors( features, gauss_pyr, descr_width, descr_hist_bins ); //建立关键点描述器
    	fprintf( stderr, " compute the descriptors use %d\n",GetTickCount()-start);
    
    	/* sort features by decreasing scale and move from CvSeq to array */
    	//start=GetTickCount();
    	//cvSeqSort( features, (CvCmpFunc)feature_cmp, NULL ); //?????
    	n = features->total;
    	*feat = (feature*)(calloc( n, sizeof(struct feature) ));
    	*feat = (feature*)(cvCvtSeqToArray( features, *feat, CV_WHOLE_SEQ )); //整条链表放在feat指向的内存
    
    	for( i = 0; i < n; i++ )
    	{
    		free( (*feat)[i].feature_data );
    		(*feat)[i].feature_data = NULL;  //释放ddata(r,c,octv,intvl,xi,scl_octv)
    		if((*feat)[i].dense == 4) ++n4;
    		else if((*feat)[i].dense == 3) ++n3;
    		else if((*feat)[i].dense == 2) ++n2;
    		else if((*feat)[i].dense == 1) ++n1;
    		else						 ++n0;
    	}
    
    	//fprintf( stderr, " move features from sequce to array use %d\n",GetTickCount()-start);
    	//start=GetTickCount();
    	fprintf( stderr, "In the total feature points the extent4 points is %d\n",n4);
    	fprintf( stderr, "In the total feature points the extent3 points is %d\n",n3);
    	fprintf( stderr, "In the total feature points the extent2 points is %d\n",n2);
    	fprintf( stderr, "In the total feature points the extent1 points is %d\n",n1);
    	fprintf( stderr, "In the total feature points the extent0 points is %d\n",n0);
    	cvReleaseMemStorage( &storage );
    	cvReleaseImage( &init_img );
    	release_pyr( &gauss_pyr, octvs, intvls + 3 );
    	release_pyr( &dog_pyr, octvs, intvls + 2 );
    	//fprintf( stderr, " free the pyramid use %d\n",GetTickCount()-start);
    	return n;
    }

        说明:上面的函数二,包含了SIFT算法中几乎所有函数,是SIFT算法的核心。本文不打算一一分析上面所有函数,只会抽取其中涉及到BBF查询机制相关的函数。

     

    3.2、K个最小近邻的查找:大顶堆优先级队列

        上文中一直在讲最近邻问题,也就是说只找最近的那唯一一个邻居,但如果现实中需要我们找到k个最近的邻居。该如何做呢?对的,之前blog内曾相近阐述过寻找最小的k个数的问题,显然,寻找k个最近邻与寻找最小的k个数的问题如出一辙。

        回忆下寻找k个最小的数中关于构造大顶堆的解决方案:

        “寻找最小的k个树,更好的办法是维护k个元素的最大堆,即用容量为k的最大堆存储最先遍历到的k个数,并假设它们即是最小的k个数,建堆费时O(k)后,有k1<k2<...<kmax(kmax设为大顶堆中最大元素)。继续遍历数列,每次遍历一个元素x,与堆顶元素比较,x<kmax,更新堆(用时logk),否则不更新堆。这样下来,总费时O(k+(n-k)*logk)=O(n*logk)。此方法得益于在堆中,查找等各项操作时间复杂度均为logk。

        根据上述方法,咱们来写大顶堆最小优先级队列相关代码实现:

     

    void* minpq_extract_min( struct min_pq* min_pq )
    {
    	void* data;
    
    	if( min_pq->n < 1 )
    	{
    		fprintf( stderr, "Warning: PQ empty, %s line %d\n", __FILE__, __LINE__ );
    		return NULL;
    	}
    	data = min_pq->pq_array[0].data; //root of tree
    	min_pq->n--;   //0
    	min_pq->pq_array[0] = min_pq->pq_array[min_pq->n];
    	restore_minpq_order( min_pq->pq_array, 0, min_pq->n );
                                                  //0
    	return data;
    }

        上述函数中,restore_minpq_order的实现如下:

    static void restore_minpq_order( struct pq_node* pq_array, int i, int n )
    {                                                          //0     //0
    	struct pq_node tmp;
    	int l, r, min = i;
    
    	l = left( i ); //2*i+1,????????????
    	r = right( i );//2*i+2,????????????
    	if( l < n )
    		if( pq_array[l].key < pq_array[i].key )
    			min = l;
    	if( r < n )
    		if( pq_array[r].key < pq_array[min].key )
    			min = r;
    
    	if( min != i )
    	{
    		tmp = pq_array[min];
    		pq_array[min] = pq_array[i];
    		pq_array[i] = tmp;
    		restore_minpq_order( pq_array, min, n );
    	}
    }

    3.3、KD树近邻搜索改进之BBF算法

        原理在上文第二部分已经阐述明白,结合大顶堆找最近的K个近邻思想,相关主体代码如下:

     

    //KD树近邻搜索改进之BBF算法
    int kdtree_bbf_knn( struct kd_node* kd_root, struct feature* feat, int k,
    					struct feature*** nbrs, int max_nn_chks )                  //2
    {                                               //200
    	struct kd_node* expl;
    	struct min_pq* min_pq;
    	struct feature* tree_feat, ** _nbrs;
    	struct bbf_data* bbf_data;
    	int i, t = 0, n = 0;
    
    	if( ! nbrs  ||  ! feat  ||  ! kd_root )
    	{
    		fprintf( stderr, "Warning: NULL pointer error, %s, line %d\n",
    				__FILE__, __LINE__ );
    		return -1;
    	}
    
    	_nbrs = (feature**)(calloc( k, sizeof( struct feature* ) )); //2
    	min_pq = minpq_init(); 
    	minpq_insert( min_pq, kd_root, 0 ); //把根节点加入搜索序列中
    
    	//队列有东西就继续搜,同时控制在t<200步内
    	while( min_pq->n > 0  &&  t < max_nn_chks )
    	{                 
    		//刚进来时,从kd树根节点搜索,exp1是根节点 
    		//后进来时,exp1是min_pq差值最小的未搜索节点入口
    		//同时按min_pq中父,子顺序依次检验,保证父节点的差值比子节点小.这样减少返回搜索时间
    		expl = (struct kd_node*)minpq_extract_min( min_pq );
    		if( ! expl )                                        
    		{                                                   
    			fprintf( stderr, "Warning: PQ unexpectedly empty, %s line %d\n",
    					__FILE__, __LINE__ );                         
    			goto fail;
    		}
    
    		//从根节点(或差值最小节点)搜索,根据目标点与节点模值的差值(小)
    		//确定在kd树的搜索路径,同时存储各个节点另一入口地址\同级搜索路径差值.
    		//存储时比较父节点的差值,如果子节点差值比父节点差值小,交换两者存储位置,
    		//使未搜索节点差值小的存储在min_pq的前面,减小返回搜索的时间.
    		expl = explore_to_leaf( expl, feat, min_pq ); 
    		if( ! expl )                                  
    		{                                             
    			fprintf( stderr, "Warning: PQ unexpectedly empty, %s line %d\n",
    					__FILE__, __LINE__ );                   
    			goto fail;                                  
    		}                                             
    
    		for( i = 0; i < expl->n; i++ )
    		{ 
    			//使用exp1->n原因:如果是叶节点,exp1->n=1,如果是伪叶节点,exp1->n=0.
    			tree_feat = &expl->features[i];
    			bbf_data = (struct bbf_data*)(malloc( sizeof( struct bbf_data ) ));
    			if( ! bbf_data )
    			{
    				fprintf( stderr, "Warning: unable to allocate memory,"
    					" %s line %d\n", __FILE__, __LINE__ );
    				goto fail;
    			}
    			bbf_data->old_data = tree_feat->feature_data;
    			bbf_data->d = descr_dist_sq(feat, tree_feat); //计算两个关键点描述器差平方和
    			tree_feat->feature_data = bbf_data;
    
    			//取前k个
    			n += insert_into_nbr_array( tree_feat, _nbrs, n, k );//
    		}                                                  //2
    		t++;
    	}
    
    	minpq_release( &min_pq );
    	for( i = 0; i < n; i++ ) //bbf_data为何搞个old_data?
    	{
    		bbf_data = (struct bbf_data*)(_nbrs[i]->feature_data);
    		_nbrs[i]->feature_data = bbf_data->old_data;
    		free( bbf_data );
    	}
    	*nbrs = _nbrs;
    	return n;
    
    fail:
    	minpq_release( &min_pq );
    	for( i = 0; i < n; i++ )
    	{
    		bbf_data = (struct bbf_data*)(_nbrs[i]->feature_data);
    		_nbrs[i]->feature_data = bbf_data->old_data;
    		free( bbf_data );
    	}
    	free( _nbrs );
    	*nbrs = NULL;
    	return -1;
    }

     

       依据上述函数kdtree_bbf_knn从上而下看下来,注意几点:

        1、上述函数kdtree_bbf_knn中,explore_to_leaf的代码如下:

     

    static struct kd_node* explore_to_leaf( struct kd_node* kd_node, struct feature* feat,
    										struct min_pq* min_pq )       //kd tree          //the before 
    {
    	struct kd_node* unexpl, * expl = kd_node;
    	double kv;
    	int ki;
    
    	while( expl  &&  ! expl->leaf )
    	{                    //0
    		ki = expl->ki;
    		kv = expl->kv;
    
    		if( ki >= feat->d )
    		{
    			fprintf( stderr, "Warning: comparing imcompatible descriptors, %s" \
    					" line %d\n", __FILE__, __LINE__ );
    			return NULL;
    		}
    		if( feat->descr[ki] <= kv )  //由目标点描述器确定搜索向kd tree的左边或右边
    		{                            //如果目标点模值比节点小,搜索向tree的左边进行
    			unexpl = expl->kd_right;
    			expl = expl->kd_left;
    		}
    		else
    		{
    			unexpl = expl->kd_left;    //else 
    			expl = expl->kd_right;
    		}
    
    		//把未搜索数分支入口,差值存储在min_pq,
    		if( minpq_insert( min_pq, unexpl, ABS( kv - feat->descr[ki] ) ) )
    		{                                     
    			fprintf( stderr, "Warning: unable to insert into PQ, %s, line %d\n",
    					__FILE__, __LINE__ );
    			return NULL;
    		}
    	}
    	return expl;
    }

     

        2、上述查找函数kdtree_bbf_knn中的参数k可调,代表的是要查找近邻的个数,即number of neighbors to find,在sift特征匹配中,k一般取2

    k = kdtree_bbf_knn( kd_root_0, feat, 2, &nbrs, KDTREE_BBF_MAX_NN_CHKS_0 );//点匹配函数(核心)
    		if( k == 2 ) //只有进行2次以上匹配过程,才算是正常匹配过程

        3、上述函数kdtree_bbf_knn中“bbf_data->d = descr_dist_sq(feat, tree_feat); //计算两个关键点描述器差平方和”,使用的计算方法是本文第一部分1.2节中所述的欧氏距离。

    3.3、SIFT+BBF算法匹配效果

        之前试了下sift + KD + BBF算法,用两幅不同的图片做了下匹配(当然,运行结果显示是不匹配的),效果还不错:http://weibo.com/1580904460/yDmzAEwcV#1348475194313

        “编译的过程中,直接用的VS2010 + opencv(并没下gsl)。2012.09.24”。....

        本文文末的完整源码,有pudn帐号的朋友可以前去这里下载:http://www.pudn.com/downloads340/sourcecode/graph/texture_mapping/detail1486667.html;没有pudn账号的同学请加群:252422340(之前的旧群群满了,导致很多同学没法加群,故可加此新群),至群文件下载SIFT_area_match.rar,验证信息:sift。感谢诸位。

     

    参考文献及推荐阅读

    1. 维基百科,http://en.wikipedia.org/wiki/K-nearest_neighbor_algorithm
    2. 机器学习中的相似性度量,http://www.cnblogs.com/heaad/archive/2011/03/08/1977733.html
    3. 杰卡德相似系数及距离,http://www.cnblogs.com/heaad/archive/2011/03/08/1977733.html
    4. 统计学习方法,李航;
    5. 概率论与数理统计 第四版 盛骤等编,高教版;
    6. 《图像局部不变特性特征与描述》王永明 王贵锦 编著;
    7. 数据挖掘:实用机器学习技术,[新西兰]Ian H.Witten 著,第4章4.7节;
    8. 模式分类,第4章 非参数技术,[美] IRichard O. Duda / Peter E. Hart / David G. Stork 著;
    9. http://underthehood.blog.51cto.com/2531780/687160
    10. http://grunt1223.iteye.com/blog/921371
    11. http://www.cnblogs.com/eyeszjwang/articles/2429382.html
    12. http://blog.csdn.net/ijuliet/article/details/4471311
    13. Rob Hess维护的sift库,http://blogs.oregonstate.edu/hess/code/sift/
    14. 酷壳,http://coolshell.cn/articles/8052.html
    15. rubyist,http://segmentfault.com/q/1010000000094674
    16. 皮尔逊相关系数维基百科页面,http://t.cn/zjy6Gpg
    17. 皮尔逊相关系数的一个应用:http://www.sobuhu.com/archives/567
    18. http://blog.csdn.net/wsywl/article/details/5727327
    19. 标准差,http://zh.wikipedia.org/wiki/%E6%A0%87%E5%87%86%E5%B7%AE
    20. 协方差与相关性,http://t.cn/zjyXFRB
    21. 电子科大kd树电子课件:http://t.cn/zjbpXna
    22. 编程艺术之寻找最小的k个数:http://blog.csdn.net/v_JULY_v/article/details/6403777
    23. 机器学习那些事儿,http://vdisk.weibo.com/s/ix_9F
    24. 大嘴巴漫谈数据挖掘,http://vdisk.weibo.com/s/bUbzJ
    25. http://www.codeproject.com/Articles/18113/KD-Tree-Searching-in-N-dimensions-Part-I
    26. 一个库:http://docs.pointclouds.org/trunk/group__kdtree.html
    27. 3D上使用kd树:http://pointclouds.org/
    28. 编辑数学公式:http://webdemo.visionobjects.com/equation.html?locale=zh_CN
    29. 基于R树的最近邻查找:http://blog.sina.com.cn/s/blog_72e1c7550101dsc3.html
    30. 包含一个demo:http://www.leexiang.com/kd-tree
    31. 机器学习相关降维算法,http://www.cnblogs.com/xbinworld/category/337861.html
    32. Machine Learning相关topic,http://www.cnblogs.com/jerrylead/tag/Machine%20Learning/
    33. 机器学习中的数学,http://www.cnblogs.com/LeftNotEasy/category/273623.html
    34. 一堆概念性wikipedia页面;
    35. 基于度量空间高维索引结构VP-tree及MVP-tree的图像检索,王志强,甘国辉,程起敏;
    36. Spill-Trees,An investigation of practical approximate nearest neighbor algorithms;
    37. DIST ANCE-BASED INDEXING FOR HIGH-DIMENSIONAL METRIC SP ACES,作者:Tolga Bozkaya & Meral Ozsoyoglu;
    38. “Multidimensional Binary Search Trees Used for Associative Searching”,Jon Louis Bentley

     

    后记

        从当天下午4点多一直写,一直写,直接写到了隔日凌晨零点左右,或参考或直接间接引用了很多人的作品及一堆wikipedia页面(当然,已经注明在上面参考文献及推荐阅读中前半部分条目,后半部分条目则为行文之后看到的一些好的资料文章,可以课外读读),但本文还是有诸多地方有待修补完善,也欢迎广大读者不吝赐教 & 指正,感谢大家。完。July、二零一二年十一月二十一日零点五分。
    展开全文
  • K近邻算法

    2019-07-07 00:26:15
    K近邻算法基本原理距离度量k值选择分类决策规则总结参考文献 基本原理 k近邻(k-nearest neighbor, k-NN)算法是一种基本分类与回归方法。本篇文章只讨论分类问题中的k近邻算法。 在k近邻算法中,假设给定一个训练...

    基本原理

    k近邻(k-nearest neighbor, k-NN)算法是一种基本分类与回归方法。本篇文章只讨论分类问题中的k近邻算法。
    在k近邻算法中,假设给定一个训练数据集,其中的实例类别是确定的。分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预测这个新实例的类别。用一句谚语形容k近邻算法就是:“如果走像鸭子,叫像鸭子,看起来还像鸭子,那么它很可能就是一只鸭子”。
    k近邻算法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别。k近邻算法实际上利用训练数据集对特征向量空间进行划分,并作为其分类的“模型”,也就是说k近邻算法不具有显式的学习过程。
    相比于决策树和基于规则的分类器的积极学习方法,k近邻算法是一种消极学习方法。在积极学习方法中,如果训练数据可用,它们就开始学习从输入特征到类别的映射模型;而消极学习方法推迟对训练数据的建模,直到需要分类测试实例时再进行。
    k近邻算法的输入和输出可以描述如下:
    输入:
    (1)训练数据集
    T={(x1,y1),(x2,y2),...,(xm,ym)}T = \{(x_1, y_1), (x_2,y_2), ..., (x_m, y_m)\}
    其中,xiRnx_i \in R^n为实例的特征向量,yi{c1,c2,...,cp}y_i \in \{c_1, c_2, ..., c_p\}为实例的类别。(即训练数据集有m个实例,每个实例特征向量为n维,实例有p个类别)
    (2)需要预测的实例的特征向量xx
    输出:实例xx所属的类别yy
    那么k近邻算法的步骤为:
    (1)根据给定的距离度量,在训练集TT中找出与xx最近邻的kk个点,涵盖这kk个点的xx的邻域记作Nk(x)N_k(x)
    (2)在Nk(x)N_k(x)中根据分类决策规则(如多数表决)决定xx的类别yy
    y=argmaxcjxiNk(x)I(yi=cj)i=1,2,...,n;j=1,2,...,py = \mathop{argmax} \limits_{c_j} \sum_{x_i \in N_k(x)} I(y_i = c_j) \qquad i=1,2,...,n; j=1,2,..., p
    式中,II为指示函数,即当yi=cjy_i = c_jII为1,否则II为0。
    k近邻算法的三要素为:

    • k值的选择
    • 距离度量
    • 分类决策规则
      下面分别进行解说。

    距离度量

    特征空间中两个实例点的距离是两个实例点相似程度的反映。k近邻模型的特征空间一般是n维实数向量空间RnR^n,使用的距离是欧氏距离,但也可以是其他距离,比如曼哈顿距离(Manhattan distance)、切比雪夫距离(Chebyshev distance)或者更一般的闵可夫斯基距离(Minkowski distance)。关于这几个距离的具体内容,可以参考我的这篇博客机器学习中常用范数与距离
    需要说明的是,由不同的距离度量所确定的最近邻点乃至k近邻点可能是不同的。比如下面这个例子。
    已知二维空间的3个点x1=(1,1)Tx_1 = (1, 1)^T, x2=(5,1)Tx_2 = (5, 1)^T, x3=(4,4)Tx_3 = (4, 4)^T,试求在pp取不同值时,闵可夫斯基距离下x1x_1的最近邻点。
    由于x1x_1x2x_2只有第一维的值不同,所以pp为任何值时,dis(x1,x2)=4dis(x_1, x_2) = 4。当p=1p=1时,dis(x1,x3)=6dis(x_1, x_3) = 6;当p=2p=2时,dis(x1,x3)=4.24dis(x_1, x_3) = 4.24;当p=3p=3时,dis(x1,x3)=3.78dis(x_1, x_3) = 3.78;当p=4p=4时,dis(x1,x3)=3.58dis(x_1, x_3) = 3.58
    可以看到,当p=1p=1p=2p=2时,x1x_1的最近邻点是x2x_2;当p3p\ge3时,x1x_1的最近邻点是x3x_3
    对于距离度量,还有一点需要注意的是,如果特征的量纲不同且数值差异较大,我们需要对特征进行标准化或者归一化处理,以消除量纲差异对算法的影响。如果在这种情况不加以处理,可能会导致算法的预测结果偏向数值较大的特征。

    k值选择

    如下图所示,k近邻算法中的训练集有蓝色三角形和红色矩形两种类别的数据,现有绿色圆形的测试实例,需要预测它归属于哪个类别。假设我们在下图中画出的就是k近邻的预测结果,那么当k=1k=1时的结果将绿色圆形归为红色矩形的类别。
    knn1.png
    而当k=2k=2时可能会得到下图这样的结果:
    knn2.png
    这时,绿色圆形的2-近邻属于两个类别,可以随机将其分配到一个类别。
    k=3k=3时,我们可能又会得到另外一种结果:
    knn3.png
    这个时候,根据多数表决方案,绿色圆形被认为是蓝色三角形的类别。
    从上面的例子,我们可以看到k值的选择对k近邻算法的重要性。如果k值太小,则k近邻分类器容易受到由于训练数据中的噪声而产生的的过分拟合的影响;相反,如果k值太大,则k近邻分类器可能会误分类测试样例,因为k近邻列表中可能包含远离其实际近邻的数据点,如下图所示。
    knn4.png
    在实际应用中,k值一般取一个比较小的数值,通常采用交叉验证法来选取最优的k值。
    另外,我们还可以使用距离加权表决方案降低k的取值对算法的影响。我们根据每个近邻xix_i和测试实例xx的不同距离对其进行加权:wi=1dis(x,xi)w_i = \frac{1}{dis(x, x_i)}。这会使得远离xx的训练实例对分类的影响要比那些靠近xx的训练实例弱一些。使用这种表决方案,类别的确定可以使用下面的公式:
    y=argmaxcjxiNk(x)wi×I(yi=cj)y = \mathop{argmax} \limits_{c_j} \sum_{x_i \in N_k(x)} w_i \times I(y_i = c_j)

    分类决策规则

    k近邻算法中的分类决策规则往往是多数表决,即有输入实例的k个邻近的训练实例中的多数类决定输入实例的类。
    多数表决规则(majority voting rule)有如下解释:如果分类的损失函数为0-1损失函数,分类函数为
    f:Rnc1,c2,...,cpf:R^n \rightarrow {c_1, c2, ..., c_p}
    那么误分类的概率是
    P(Y≠f(X))=1P(Y=f(X))P(Y = \not f(X)) = 1 - P(Y = f(X))
    对给定的实例xx,其最近邻的k个训练实例点构成集合Nk(x)N_k(x)。如果涵盖Nk(x)N_k(x)的区域的类别是cjc_j,那么误分类率是
    1kxiNk(x)I(yi≠cj)=11kxiNk(x)I(yi=cj)\frac{1}{k} \sum_{x_i \in N_k(x)} I(y_i = \not c_j) = 1 - \frac{1}{k} \sum_{x_i \in N_k(x)} I(y_i = c_j)
    要使误分类率最小,就要使xiNk(x)I(yi=cj)\sum_{x_i \in N_k(x)} I(y_i = c_j)最大。

    总结

    • k近邻分类是一种基于实例的学习方法,它使用具体的训练实例进行预测, 而不需要建立模型。然而,分类测试实例的开销很大,因为需要逐个计算测试实例和训练实例之间的相似度。
    • k近邻分类器基于局部信息进行预测,使得其对噪声非常敏感。
    • k近邻分类器可以生成任意形状的决策边界,这样的决策边界与决策树和基于规则的分类器通常所局限的直线决策边界相比,能提供更加灵活的模型表示。k近邻分类器的决策边界还有很高的可变性,因为它们依赖于训练样例的组合。增加k值可以降低这种可变性。

    参考文献

    【1】《统计学习方法(第2版)》第3章 k近邻法——李航 著
    【2】《数据挖掘导论》5.2 最近邻分类器——Pang-Ning Tan等 著

    展开全文
  • k近邻算法

    2020-08-15 15:40:58
    k近邻算法   k近邻算法是一个基本的分类回归方法,其没有显式的学习过程,而是完全取决于数据,因此k近邻是基于数据的学习算法,其只有唯一的一个参数 k(k>0,k∈N+)k(k>0,k\in\mathbb{N}_+)k(k>0,k∈N+​...

    k近邻算法

      k近邻算法是一个基本的分类回归方法,其没有显式的学习过程,而是完全取决于数据,因此k近邻是基于数据的学习算法,其只有唯一的一个参数 k(k>0,kN+)k(k>0,k\in\mathbb{N}_+)

    1、k近邻算法

      给定一组已知数据 T={(xi,yi)}i=1i=NT=\{(x_i,y_i)\}_{i=1}^{i=N},其中 xix_i 表示样本的特征向量,yiy_i 是对应的标签。通过这组数据可以构建一个k近邻模型。在测试阶段,给定一个样本 x0x_0,计算其与所有其他训练样本的距离,并得到最近的k个样本,这k个样本中类标最多的作为当前样本 x0x_0的预测结果。

      kk 值的选择是该算法唯一的一个超参数。其表示在判断所给定样本的类时,所挑选附近点的个数。如果 kk 值过大,说明周围的点数量越多,距离越远的点也会起到分类的作用,模型变得简单,容易产生欠拟合;如果 kk 值过小,则所选的点数量少,模型过于复杂, 容易产生过拟合。当 k=1k=1 时,则表示为最近邻,其最近的样本点的类作为预测的类;当 k=Nk=N 时,则整个训练集的样本最多的类作为预测值,此时不具有分类效果了,模型变得非常简单。

    2、距离函数

      距离度量函数常用的是 LpL_p 距离,即:

    Lp(xi,xj)=(l=1nxi(l)sj(l)p)1pL_p(x_i,x_j) = (\sum_{l=1}^{n}|x_i^{(l)} - s_{j}^{(l)}|^p)^{\frac{1}{p}}

    p=1p=1 时即为曼哈顿距离(绝对值的差);当 p=2p=2 时表示欧氏距离(平方和的根式)。

      对分类的结果的评价是指所有误分类点的概率,即该点没有被预测为正确类的概率。因此学习的目标则是最小化误分类点的概率,其等价于经验风险最小化。

    3、Kd树

      给定一组训练集,首先构建kd树,构建方法可描述为:
    (1)假设训练集每个样本只有三个维度的特征,记做x(1),x(2),x(3)x^{(1)}, x^{(2)}, x^{(3)}。首先选择第一个维度的特征,其有诸多取值,取出对应的中位数作为分界线。将所有样本分为两类。因此可以构建一个二叉树;
    (2)相当于缩小了训练集的空间,将训练集分到两个孩子结点上。对于每个孩子结点,选择第二个特征,并将对应所有样本在该特征的中位数作为分界线,继续往下划分,以此类推;
    (3)直到所有的样本都被划分到独立的一个叶子结点(即每个叶子结点只有一个样本点),构建结束。

      kd树将搜索空间缩小,避免计算每个样本点的距离。如何根据kd树来选择最近邻?
    (1)给定一个测试集样本 x0x_0,首先其根据构建的规则,从根结点向下进行搜索,最终落到对应的一个叶子结点。此时叶子结点所在的样本 x1x_1 可以认为是与当前 x0x_0 的最近邻结点;
    (2)显然, x1x_1x0x_0 的距离是一个阈值,最近邻一定在这个范围内。因此向上递归,计算 x0x_0 与父亲结点的距离,并计算对应兄弟结点的距离,根据距离的比较,选择最近的样本作为最近邻;
    (3)以此类推,逐个递归到根结点。

      注意的是,如果当前最近邻的范围与kd树划分的区域不重叠时,则不需要进行计算,因此大大降低了计算和搜索空间。

      例如,给定一组训练集 {(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)}\{(2,3), (5,4), (9,6), (4,7), (8,1), (7,2)\}, 其可以构建kd树如下所示:

    在这里插入图片描述

    对应的空间划分是:

    在这里插入图片描述
      在搜索过程中,给定一个样本点 (3,4.5)(3,4.5),首先可以判断其落在 (4,7)(4,7) 对应的叶子结点,计算其与该样本的距离为 (34)2+(4.57)2=7.25\sqrt{(3-4)^2+(4.5-7)^2}=\sqrt{7.25}。其次向上递归,计算样本 (5,4)(5,4)(3,4.5)(3,4.5) 的距离为 4.25\sqrt{4.25}, 发现距离表小,所以最近邻变为点 (5,4)(5,4)。其次在与其另一个孩子结点进行比较,距离为 3.25\sqrt{3.25}, 距离再次变小,所以最近邻为 (2,3)(2,3)。继续向上递归,发现点 (7,2)(7,2) 以及不在以 (3,4.5)(3,4.5) 为圆心,3.25\sqrt{3.25}为半径的圆范围内,所以根结点的右子树不需要搜索了。

    展开全文
  • K 近邻算法

    2018-12-19 13:29:06
    k 近邻算法是一种分类算法 对于未知类别的点:  1.计算已知类别的点到当前点中的距离(计算距离)  2.按照距离以此排序(排序)  3.选取与当前点距离最近的k个点(选K个点)  4.确定前k个点的类别(确定...

    k 近邻算法是一种分类算法

    对于未知类别的点:

          1.计算已知类别的点到当前点中的距离(计算距离)

          2.按照距离以此排序(排序)

          3.选取与当前点距离最近的k个点(选K个点)

          4.确定前k个点的类别(确定类别)

          5.选取出现类别次数最多的点的类别,作为未知点的类别。

     

    k 近邻算法的三个要素: k值的选取,距离度量,分类决策规则

    k 近邻中如果出现样本不平衡。 解决方式:不同的样本赋予不同的权重。

     

    1.预处理你的数据:对你数据中的特征进行归一化(normalize),让其具有0均值和单位方差。

    2.输入数据是高维数据,考虑采用降维方法比如pca

    3.将数据分为训练集和验证集,按照一般规律,70%-90%数据作为训练集

    4.在验证集上调优,尝试足够多的k值,尝试L1和L2两种范数的计算方式

    展开全文
  • python K近近邻邻算算法法的的kd树树实实现现 这篇文章主要介绍了python K近邻算法的kd树实现小编觉得挺不错的现在分享给大家也给大家做个参考 一起跟随小编过 看看吧 k近近邻算算法法的的介介绍 k近邻算法是一种...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,529
精华内容 4,211
关键字:

k近邻算法