精华内容
下载资源
问答
  • 基于SURF算法的图像拼接方法
    2021-08-25 11:58:37

    一种基于SURF算法的图像拼接方法

    本设计涉及一种图像拼接方法,涉及图像处理技术领域。

    背景技术

    现有的图像拼接方法一般采用SIFT算法和Harris角点算法,采用SIFT算法和Harris角点算法存在特征点提取速度慢,而且鲁棒性低。尤其是在图像中存在尺度变换、视角变换、光照变化时,图像拼接处理效果不理想。

    一种基于SURF算法的图像拼接方法,涉及图像处理技术领域。本发明为了解决采用SIFT算法和Harris角点算法存在特征点提取速度慢,而且鲁棒性低,致使图像拼接处理效果不理想的问题。应用Matlab对工业摄像头进行驱动,完成摄像头的标定,以使用摄像头进行视频录制;应用灰色世界法,对所录制视频中每一帧的图像进行白平衡的调节;应用SURF算法,对白平衡调节后的同时刻录制的两张照片进行特征点提取;应用RANSAC算法,将已经标出特征点的两张图像进行误匹配特征点对剔除 ;采 用插值运算 ,将经RANSAC算法处理后的图像拼接在一起,完成图像拼接,获得视角更大的图像。本发明尤其是适用于工业摄像头平台下的图像拼接。

    本设计为解决上述技术问题采取的技术方案是:

    一种基于SURF算法的图像拼接方法,所述方法的实现过程为:

    步骤一:应用Matlab对工业摄像头进行驱动,完成摄像头的标定,以使用摄像头进行视频录制;

    步骤二:应用灰色世界法,对所录制视频中每一帧的图像进行白平衡的调节;

    步骤三:应用SURF算法,对白平衡调节后的同时刻录制的两张照片进行特征点提

    取;

    步骤四:应用RANSAC算法,将已经标出特征点的两张图像进行误匹配特征点对剔

    除;

    步骤五:采用插值运算,将经RANSAC算法处理后的图像拼接在一起,完成图像拼

    接,获得视角更大的图像。

    步骤一中,在应用摄像头进行视频录制时,利用多媒体移动采集平台;所述多媒体移动采集平台用于同时承载充电电池、电脑、工业摄像头,以实现摄像头边录制边移动。

    步骤三中,应用SURF算法进行特征点提取的过程为: 第一步、特征点检测:

    利用盒子滤波器对白平衡调节后的同时刻录制的两张图像进行卷积,通过改变盒子滤波器的大小,用不同大小的滤波器在所述两张图像的x,y,z三个方向上作卷积,形成多尺度空间函数Dxx,Dyy,Dxy,构建尺度空间金字塔;

    detH的含义是Hessian矩阵的行列式,

    在尺度空间金字塔构建完毕后,通过下式近似代替detH detH=Dxx×Dyy-(0 .9×Dxy)2

    求取某一特定尺度下的局部极值;在得到局部极值后,需要对它们在3×3×3的立体邻域内进行非极大值抑制,把符合条件的点筛选为候选极值点,同时记下位置和尺寸,完成特征点检测;


    第二步、特征点描述:

    在确定特征点位置之后,利用haar小波对特征点进行主方向的确定以保证特征点的旋转和尺度不变性,在完成haar小波主方向确定之后,以特征点为中心,将坐标轴旋转到haar小波主方向上,做一个边长为20σ的正方形窗口,σ为高斯滤波器的尺度,并将窗口划分为16个大小为5σ×5σ的子窗口区域;

    以采样间隔σ,分别计算每个子窗口水平和垂直方向上的小波响应,得到的小波系数记为dx和dy;然后对响应系数求和得到∑dx和∑dy,再求取响应系数绝对值之和得到∑|dx

    |和∑|dy|;因此,每个子窗口都能够得到一个4维向量v=[∑dx ,∑dy ,∑|dx| ,∑|dy],并且用这个向量来描述该特征点;

    第三步、特征点匹配:

    完成特征点描述后进行特征匹配,特征匹配是指在高维向量空间中寻找出最相似的特征向量;

    根据特征向量之间的欧式距离来衡量特征点的相似度,选取一张图像中的一个特征点与别一张图像中所有特征点分别求取欧式距离,从中选出最近邻特征点欧式距离和次近 征点欧式距离,计算二者的比值ratio;


    v2-0a565ed47038c6056f1ee9b42587eddf_b.jpg

    对于比值ratio小于某阈值的特征点,则认为是正确匹配的特征点,否则是错误匹配的特征点,将正确匹配的特征点进行连接,

    步骤四中,应用RANSAC算法,将已经标出特征点的两张图像进行误匹配特征点对剔除的具体过程为:

    1. 从正确匹配的特征点对中随机选择m对特征点来求解单应性矩阵模型Hcur;
    2. 将除上述m对特征点以外的其他特征点对利用Hcur计算其对称变换误差di ,统计误差di<T_dist的内点的个数M;T_dist为指定的一个阈值,用于表示欧式距离;
    3. 若M>M_inlier,或者M=M_inlier,则认为Hcur是当前最好的模型,并且保存内


    M_inlier为指定的一个阈值,表示符合单应性矩阵模型Hcur的内点的个数;

    1. 利用式(2)计算循环次数N,步骤(1)~(3)执行N次,当循环结束时,得到M最大



    v2-a4d48f6aed5458a11b33faee5890ba4e_b.jpg

    的对应的单应性矩阵模型,得到最优的模型矩阵;

    其中ε为外点所占的比例,P表示置信概率。

    置信概率P取值为0 .99、m取值为大于或等于4、公式(1)中阈值取0 .7时为最佳的选

    本设计的有益效果是:

    利用本设计方法进行图像拼接时,拼接速度快,鲁棒性好,受图像的尺度变换、视

    角变换、光照变化等影响较小,拼接效果好。在工业摄像头平台下采用灰色世界法(图象预处理)、SURF算法、RANSAC算法,并且使用插值来对图像进行处理。


    v2-9bb48207a4f203bd2990488540ae5d80_b.jpg


    图2


    v2-1a2de859d2e09a7c1e174e5a350e65df_b.jpg


    v2-251f9e2ba873ff65f8263c19d3f650fa_b.jpg

    v2-4475d6db3d68fe1fd9d5d7684a79c6d5_b.jpg


    v2-421bb679d6dfe65d8ddb6de0dc8f860d_b.jpg

    更多相关内容
  • SURF算法检测特征点,再用ORB算法去匹配
  • 特征匹配算法sift,改进surf算法,可以得到两张图片的特征匹配点
  • 其次,对获取到的前景图像进行多特征提取,将传统的灰度共生矩阵特征与SURF算法特征相结合,并通过线性内插权值的透视矫正方法进行摄像畸形矫正,将矫正后的特征值组成了表征人群数目特征的特征向量。从而减少了深度信息...
  • 压缩包内是改进SIFT算法后得到的SURF算法,通过matlab调用C++程序,需要预先设置好matlab安装MinGW-w64编译器(mex命令),具体论文里面有,或者参考https://blog.csdn.net/desire121/article/details/60466845
  • 针对目标在移动过程中实时视觉图像特征点提取与配准的不稳定性,提出一种...实验结果表明,在不同旋转尺度下,改进算法的静态图像配准较SURF算法具有较高配准精度,移动图像特征点提取及配准数量的稳定性达到97%以上。
  • surf 算法论文及代码

    2021-02-03 07:01:34
    SURF算子由SIFT算子改进而来,一般来说,标准的SURF算子比SIFT算子快好几倍,并且在多幅图片下具有更好的鲁棒性。SURF最大的特征在于采用了harr特征以及积分图像integral image的概念,这大大加快了程序的运行时间。
  • 针对目前图像拼接算法存在对于图像配准过程中对应特征点对难以准确匹配的问题,提出了一个通过改进SURF算法提取图像特征点,然后对得到的特征点进行描述,利用快速RANSAC算法配准图像,最后采用像素加权的方法进行...
  • 针对复杂背景下汉字匹配准确率较低的问题,提出一种改进SURF算法。该算法利用灰度分级的字符分割方法,先进行灰度分割增强图像的对比度,采用灰度分级树将图像中的所有像素处理为树的模式进行计算,根据灰度分级...
  • 基于改进SURF算法的交通视频车辆检索方法研究
  • SURF算法

    万次阅读 多人点赞 2019-01-18 20:23:05
    SURF(Speeded Up Robust Features)是对SIFT的一种改进,主要特点是快速。SURF与SIFT主要有以下几点不同处理: 1、 SIFT在构造DOG金字塔以及求DOG局部空间极值比较耗时,SURF改进是使用Hessian矩阵变换图像,...

    SURF

    SURF(Speeded Up Robust Features)是对SIFT的一种改进,主要特点是快速。SURF与SIFT主要有以下几点不同处理:

          1、 SIFT在构造DOG金字塔以及求DOG局部空间极值比较耗时,SURF的改进是使用Hessian矩阵变换图像,极值的检测只需计算Hessian矩阵行列式,作为进一步优化,使用一个简单的方程可以求出Hessian行列式近似值,使用盒状模糊滤波(box blur)求高斯模糊近似值

          2、 SURF不使用降采样,通过保持图像大小不变,但改变盒状滤波器的大小来构建尺度金字塔

           3、在计算关键点主方向以及关键点周边像素方向的方法上,SURF不使用直方图统计,而是使用哈尔(haar)小波转换。SIFT的KPD达到128维,导致KPD的比较耗时,SURF使用哈尔(haar)小波转换得到的方向,让SURF的KPD降到64维,减少了一半,提高了匹配速度

               如果说SIFT算法中使用DOG对LOG进行了简化,提高了搜索特征点的速度,那么SURF算法则是对DoH的简化与近似。虽然SIFT算法已经被认为是最有效的,也是最常用的特征点提取的算法,但如果不借助于硬件的加速和专用图像处理器的配合,SIFT算法以现有的计算机仍然很难达到实时的程度。对于需要实时运算的场合,如基于特征点匹配的实时目标跟踪系统,每秒要处理8-24帧的图像,需要在毫秒级内完成特征点的搜索、特征矢量生成、特征矢量匹配、目标锁定等工作,这样SIFT算法就很难适应这种需求了。SURF借鉴了SIFT中简化近似的思想,把DoH中的高斯二阶微分模板进行了简化,使得模板对图像的滤波只需要进行几个简单的加减法运算,并且,这种运算与滤波器的尺度无关。实验证明,SURF算法较SIFT在运算速度上要快3倍左右。

    1. 积分图像

    SURF算法中要用到积分图像的概念。借助积分图像,图像与高斯二阶微分模板的滤波转化为对积分图像的加减运算。

    积分图像中任意一点(i,j)的值ii(i,j),为原图像左上角到点(i,j)相应的对角线区域灰度值的总和,即

                                         ii(i,j)=\sum_{r\leqslant i,c \leqslant j}^{ } p(r,c)

    式中,p(r,c)表示图像中点(r,c)的灰度值,ii(i,j)可以用下面两式迭代计算得到

                                          

    式中,S(i,j)表示一列的积分,且S(i,−1)=0 ,ii(-1,j)=0。求积分图像,只需要对原图像所有像素进行一遍扫描。

    OpenCV中提供了用于计算积分图像的接口

    *src :输入图像,大小为M*N
    * sum: 输出的积分图像,大小为(M+1)*(N+1)
    * sdepth:用于指定sum的类型,-1表示与src类型一致
    */
    void integral(InputArray src, OutputArray sum, int sdepth = -1);

       值得注意的是OpenCV里的积分图大小比原图像多一行一列,那是因为OpenCV中积分图的计算公式为:
                                         ii(i,j)=\sum_{r< i,c <j}^{ } p(r,c)
      一旦积分图计算好了,计算图像内任何矩形区域的像素值的和只需要三个加法,如下图所示:
                           

    2. DoH近似

         surf构造的金字塔图像与sift有很大不同,Sift采用的是DOG图像,而surf采用的是Hessian矩阵行列式近似值图像。 

        Hessian矩阵是Surf算法的核心,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点),为下文的特征提取做好基础。每一个像素点都可以求出一个Hessian矩阵:

                                     

        当Hessian矩阵的判别式取得局部极大值时,判定当前点是比周围邻域内其他点更亮或更暗的点,由此来定位关键点的位置,Hessian矩阵的判别式为:

                                         

         在SURF算法中,图像像素l(x,y)即为函数值f(x,y)。但是由于我们的特征点需要具备尺度无关性,所以在进行Hessian矩阵构造前,需要对其进行高斯滤波,选用二阶标准高斯函数作为滤波器 。通过特定核间的卷积计算二阶偏导数,这样便能计算出H矩阵的三个矩阵元素L_xx, L_xy, L_yy从而计算出H矩阵,在点x处,尺度为σ的Hessian矩阵H(x,σ)定义如下:

                                                   

    式中,L_{xx}(x,\sigma )是高斯二阶微分 在在像素点(x,y)处与图像函数I(x,y)的卷积。

    下面显示的是上面三种高斯微分算子的图形。

                                  

           但是利用Hessian行列式进行图像斑点检测时,有一个缺点。由于二阶高斯微分被离散化和裁剪的原因,导致了图像在旋转奇数倍的\pi /4时,即转换到模板的对角线方向时,特征点检测的重复性降低(也就是说,原来特征点的地方,可能检测不到特征点了)。而在\pi /2时,特征点检测的重现率真最高。但这一小小的不足不影响我们使用Hessian矩阵进行特征点的检测。

    盒式滤波器

        由于高斯核是服从正态分布的,从中心点往外,系数越来越低,为了提高运算速度,Surf使用了盒式滤波器来近似替代高斯滤波器,提高运算速度。 盒式滤波器(Boxfilter)对图像的滤波转化成计算图像上不同区域间像素和的加减运算问题,只需要简单几次查找积分图就可以完成。每个像素的Hessian矩阵行列式的近似值: ,在Dxy上乘了一个加权系数0.9,目的是为了平衡因使用盒式滤波器近似所带来的误差

        高斯函数的高阶微分与离散的图像函数I(x,y)做卷积运算时相当于使用高斯滤波模板对图像做滤波处理。

        在实际运用中,高斯二阶微分进行离散化和裁剪处理得到盒子滤波器近似代替高斯滤波板进行卷积计算,我们需要对高斯二阶微分模板进行简化,使得简化后的模板只是由几个矩形区域组成,矩形区域内填充同一值,如下图所示,在简化模板中白色区域的值为正数,黑色区域的值为负数,灰度区域的值为0。

       

          对于σ=1.2的高斯二阶微分滤波器,我们设定模板的尺寸为9×9的大小,并用它作为最小尺度空间值对图像进行滤波和斑点检测。我们使用Dxx、Dxy和Dyy表示模板与图像进行卷积的结果。这样,便可以将Hessian矩阵的行列式作如下的简化:

                          

        滤波器响应的相关权重w是为了平衡Hessian行列式的表示式。这是为了保持高斯核与近似高斯核的一致性。

                                                  

       其中|X|_{F}为Frobenius范数。理论上来说对于不同的σ的值和对应尺寸的模板尺寸,w值是不同的,但为了简化起见,可以认为它是同一个常数。

            使用近似的Hessian矩阵行列式来表示图像中某一点x处的斑点响应值,遍历图像中所有的像元点,便形成了在某一尺度下关键点检测的响应图像。使用不同的模板尺寸,便形成了多尺度斑点响应的金字塔图像,利用这一金字塔图像,就可以进行斑点响应极值点的搜索,其过程完全与SIFT算法类同。

    3. 尺度空间表示

         通常想要获取不同尺度的斑点,必须建立图像的尺度空间金字塔。一般的方法是通过不同σ的高斯函数,对图像进行平滑滤波,然后重采样图像以获得更高一层的金字塔图像。SIFT特征检测算法中就是通过相邻两层图像金字塔相减得到DoG图像,然后再在DoG图像上进行斑点和边缘检测工作的。

         由于采用了盒子滤波和积分图像,所以,我们并不需要像SIFT算法那样去直接建立图像金字塔,而是采用不断增大盒子滤波模板的尺寸的间接方法。通过不同尺寸盒子滤波模板与积分图像求取Hessian矩阵行列式的响应图像。然后在响应图像上采用3D非最大值抑制,求取各种不同尺度的斑点。

         如前所述,我们使用9×9的模板对图像进行滤波,其结果作为最初始的尺度空间层(此时,尺度值为s=1.2,近似σ=1.2的高斯微分),后续的层将通过逐步放大滤波模板尺寸,以及放大后的模板不断与图像进行滤波得到。由于采用盒子滤波和积分图像,滤波过程并不随着滤波模板尺寸的增加而使运算工作量增加。

         与SIFT算法类似,我们需要将尺度空间划分为若干组(Octaves)。一个组代表了逐步放大的滤波模板对同一输入图像进行滤波的一系列响应图。每个组又由若干固定的层组成。由于积分图像离散化的原因,两个层之间的最小尺度变化量是由高斯二阶微分滤波器在微分方向上对正负斑点响应长度l_{0}决定的,它是盒子滤波器模板尺寸的1/3。对于9×9的模板,它的l_{0}=3。下一层的响应长度至少应该在l_{0}的基础上增加2个像素,以保证一边一个像素,即l_{0}=5。这样模板的尺寸就为15×15。以此类推,我们可以得到一个尺寸增大模板序列,它们的尺寸分别为:9×9,15×15,21×21,27×279×9,15×15,21×21,27×27,黑色、白色区域的长度增加偶数个像素,以保证一个中心像素的存在。

                                         

         采用类似的方法来处理其他几组的模板序列。其方法是将滤波器尺寸增加量翻倍(6,12,24,38)。这样,可以得到第二组的滤波器尺寸,它们分别为15,27,39,51。第三组的滤波器尺寸为27,51,75,99。如果原始图像的尺寸仍然大于对应的滤波器尺寸,尺度空间的分析还可以进行第四组,其对应的模板尺寸分别为51,99,147和195。下图显示了第一组至第三组的滤波器尺寸变化。

                                               

        在通常尺度分析情况下,随着尺度的增大,被检测到的斑点数量迅速衰减。所以一般进行3-4组就可以了,与此同时,为了减少运算量,提高计算的速度,可以考虑在滤波时,将采样间隔设为2。

        对于尺寸为L的模板,当用它与积分图运算来近似二维高斯核的滤波时,对应的二维高斯核的参数σ=1.2×(L/9),这一点至关重要,尤其是在后面计算描述子时,用于计算邻域的半径时。

    Hessian行列式图像的产生过程

         在SURF算法的尺度空间中,每一组中任意一层包括D_{xx},D_{yy},D_{xy}三种盒子滤波器。对一幅输入图像进行滤波后通过Hessian行列式计算公式可以得到对于尺度坐标下的Hessian行列式的值,所有Hessian行列式值构成一幅Hessian行列式图像。

    4. 兴趣点的定位

         为了在图像及不同尺寸中定位兴趣点,我们用了3×3×3邻域非最大值抑制。具体的步骤基本与SIFT一致,而且Hessian矩阵行列式的最大值在尺度和图像空间被插值。

          总体来说,如果理解了SIFT算法,再来看SURF算法会发现思路非常简单。尤其是局部最大值查找方面,基本一致。关键还是一个用积分图来简化卷积的思路,以及怎么用不同的模板来近似原来尺度空间中的高斯滤波器。

    5. SURF特征点方向分配

           为了保证特征矢量具有旋转不变性,与SIFT特征一样,需要对每个特征点分配一个主方向。为些,我们需要以特征点为中心,以6*s(s=1.2∗L/9为特征点的尺度)为半径的圆形区域,对图像进行Haar小波响应运算。这样做实际就是对图像进行梯度运算只不过是我们需要利用积分图像,提高计算图像梯度的效率。在SIFT特征描述子中我们在求取特征点主方向时,以是特征点为中心,在以4.5σ为半径的邻域内计算梯度方向直方图。事实上,两种方法在求取特征点主方向时,考虑到Haar小波的模板带宽,实际计算梯度的图像区域是相同的。用于计算梯度的Harr小波的尺度为4s。

                                              

         其中左侧模板计算X方向的响应,右侧模板计算y方向的响应,黑色表示-1,白色表示+1。用其对圆形领域进行处理后,就得到了该领域内每个点对应的x,y方向的响应,然后用以兴趣点为中心的高斯函数(\sigma =2s)对这些响应进行加权。

         为了求取主方向值,需要设计一个以特征点为中心,张角为60度的扇形滑动窗口,统计这个扇形区域内的haar小波特征总和。以步长为0.2弧度左右,旋转这个滑动窗口,再统计小波特征总和。小波特征总和最大的方向为主方向。特征总和的求法是对图像Harr小波响应值dx、dy进行累加,得到一个矢量(m_{w},\theta _{w})

                                                

    主方向为最大Harr响应累加值所对应的方向,也就是最长矢量所对应的方向,即

                                                    

          可以依照SIFT求方向时策略,当存在另一个相当于主峰值80%能量的峰值时,则将这个方向认为是该特征点的辅方向。一个特征点可能会被指定具有多个方向(一个主方向,一个以上辅方向),这可以增强匹配的鲁棒性。和SIFT的描述子类似,如果在m_{w}中出现另一个大于主峰能量max[m_{w}]的80%时的次峰,可以将该特征点复制成两个特征点。一个主的方向为最大响应能量所对应的方向,另一个主方向为次大响应能量所对应的方向。

                    

    5.1  特征点特征矢量生成

        在SIFT中关键点描述是选取了关键点周围16*16的领域,又将其划分为4*4的区域,每个区域统计8个方向梯度,最后得到4*4*8=128维度的描述向量。

        SURF中,我们在关键点周围选取一个正方形框,方向为关键点的主方向,边长为20S。将其划分为16个区域(边长为5S),每个区域统计25个像素的水平方向和垂直方向的Haar小波特性(均相对于正方形框的主方向确定的)

          生成特征点描述子,需要计算图像的Haar小波响应。在一个矩形区域来计算Haar小波响应。以特征点为中心,沿上一节讨论得到的主方向,沿主方向将20s×20s的图像划分为4×4个子块,每个子块利用尺寸2s的Harr模板进行响应值计算,然后对响应值进行统计∑dx、∑|dx|、∑dy、∑|dy|形成特征矢量。如下图2所示。图中,以特征点为中心,以20s为边长的矩形窗口为特征描述子计算使用的窗口,特征点到矩形边框的线段表示特征点的主方向。

                                               

          将20s的窗口划分成4×4子窗口,每个子窗口有5s×5s个像素。使用尺寸为2s的Harr小波对子窗口图像进行其响应值计算,共进行25次采样,分别得到沿主方向的dy和垂直于主方向的dx。然后,以特征点为中心,对dy和dx进行高斯加权计算,高斯核的参数为σ=3.3s(即20s/6)。最后分别对每个子块的响应值进行统计,得到每个子块的矢量:

                                             

          由于共有4×4个子块,因此,特征描述子共由4×4×4=64维特征矢量组成。SURF描述子不仅具有尺度和旋转不变性,而且对光照的变化也具有不变性。使小波响应本身就具有亮度不变性,而对比度的不变性则是通过将特征矢量进行归一化来实现。图3 给出了三种不同图像模式的子块得到的不同结果。对于实际图像的描述子,我们可以认为它们是由这三种不同模式图像的描述子组合而成的。

                                  

         为了充分利用积分图像进行Haar小波的响应计算,我们并不直接旋转Haar小波模板求得其响应值,而是在积图像上先使用水平和垂直的Haar模板求得响应值dy和dx,然后根据主方向旋转dx和dy与主方向操持一致,如下图4所示。为了求得旋转后Haar小波响应值,首先要得到旋转前图像的位置。旋转前后图偈的位置关系,可以通过点的旋转公式得到:

                                                 

        在得到点(j,i)在旋转前对应积分图像的位置(x,y)后,利用积分图像与水平、垂直Harr小波,求得水平与垂直两个方向的响应值dx和dy。对dx和dy进行高斯加权处理,并根据主方向的角度,对dx和dy进行旋转变换,从而,得到旋转后的dx’和dy’。其计算公式如下:

                                                         

                             

    5.2 特征描述子的维数

          一般而言,特征矢量的长度越长,特征矢量所承载的信息量就越大,特征描述子的独特性就越好,但匹配时所付出的时间代价就越大。对于SURF描述子,可以将它扩展到用128维矢量来表示。具体方法是在求∑dx、∑|dx|时区分dy<0和dy≥0情况。同时,在求取∑dy、∑|dy|时区分dx<0和dx≥0情况。这样,每个子块就产生了8个梯度统计值,从而使描述子特征矢量的长度增加到8×4×4=128维。

           为了实现快速匹配,SURF在特征矢量中增加了一个新的变量,即特征点的拉普拉斯响应正负号。在特征点检测时,将Hessian矩阵的迹的正负号记录下来,作为特征矢量中的一个变量。这样做并不增加运算量,因为特征点检测进已经对Hessian矩阵的迹进行了计算。在特征匹配时,这个变量可以有效地节省搜索的时间,因为只有两个具有相同正负号的特征点才有可能匹配,对于正负号不同的特征点就不进行相似性计算。

           简单地说,我们可以根据特征点的响应值符号,将特征点分成两组,一组是具有拉普拉斯正响应的特征点,一组是具有拉普拉斯负响应的特征点,匹配时,只有符号相同组中的特征点才能进行相互匹配。显然,这样可以节省特征点匹配的时间。如下图5所示。

                                  

          实际上有文献指出,SURF比SIFT工作更出色。他们认为主要是因为SURF在求取描述子特征矢量时,是对一个子块的梯度信息进行求和,而SIFT则是依靠单个像素梯度的方向。

    SURF算法与SIFT算法总结对比

    (1)在生成尺度空间方面,SIFT算法利用的是差分高斯金字塔与不同层级的空间图像相互卷积生成。SURF算法采用的是不同尺度的box filters与原图像卷积

    (2)在特征点检验时,SIFT算子是先对图像进行非极大值抑制,再去除对比度较低的点。然后通过Hessian矩阵去除边缘的点。

    而SURF算法是先通过Hessian矩阵来检测候选特征点,然后再对非极大值的点进行抑制

    (3)在特征向量的方向确定上,SIFT算法是在正方形区域内统计梯度的幅值的直方图,找到最大梯度幅值所对应的方向。SIFT算子确定的特征点可以有一个或一个以上方向,其中包括一个主方向与多个辅方向。

    SURF算法则是在圆形邻域内,检测各个扇形范围内水平、垂直方向上的Haar小波响应,找到模值最大的扇形指向,且该算法的方向只有一个。

    (4)SIFT算法生成描述子时,是将16*16的采样点划分为4*4的区域,从而计算每个分区种子点的幅值并确定其方向,共计4*4*8=128维。

    SURF算法在生成特征描述子时将20s*20s的正方形分割成4*4的小方格,每个子区域25个采样点,计算小波haar响应,一共4*4*4=64维。

    综上,SURF算法在各个步骤上都简化了一些繁琐的工作,仅仅计算了特征点的一个主方向,生成的特征描述子也与前者相比降低了维数。

    from:https://www.cnblogs.com/gfgwxw/p/9415218.html

    ——————————————————————————————————————————

    SUFT源码解析

    这份源码来自OpenCV nonfree模块。

    1 主干函数 fastHessianDetector

          特征点定位的主干函数为fastHessianDetector,该函数接受一个积分图像,以及尺寸相关的参数,组数与每组的层数,检测到的特征点保存在vector<KeyPoint>类型的结构中。

    static void fastHessianDetector(const Mat& sum, const Mat& msum, vector<KeyPoint>& keypoints,
        int nOctaves, int nOctaveLayers, float hessianThreshold)
    {
        /*first Octave图像采样的步长,第二组的时候加倍,以此内推
        增加这个值,将会加快特征点检测的速度,但是会让特征点的提取变得不稳定*/
        const int SAMPLE_STEP0 = 1;
    
        int nTotalLayers = (nOctaveLayers + 2)*nOctaves; // 尺度空间的总图像数
        int nMiddleLayers = nOctaveLayers*nOctaves; // 用于检测特征点的层的 总数,也就是中间层的总数
    
        vector<Mat> dets(nTotalLayers); // 每一层图像 对应的 Hessian行列式的值
        vector<Mat> traces(nTotalLayers); // 每一层图像 对应的 Hessian矩阵的迹的值
        vector<int> sizes(nTotalLayers); // 每一层用的 Harr模板的大小
        vector<int> sampleSteps(nTotalLayers); // 每一层用的采样步长 
        vector<int> middleIndices(nMiddleLayers); // 中间层的索引值
    
        keypoints.clear();
    
        // 为上面的对象分配空间,并赋予合适的值
        int index = 0, middleIndex = 0, step = SAMPLE_STEP0;
    
        for (int octave = 0; octave < nOctaves; octave++)
        {
            for (int layer = 0; layer < nOctaveLayers + 2; layer++)
            {
                /*这里sum.rows - 1是因为 sum是积分图,它的大小是原图像大小加1*/
                dets[index].create((sum.rows - 1) / step, (sum.cols - 1) / step, CV_32F); // 这里面有除以遍历图像用的步长
                traces[index].create((sum.rows - 1) / step, (sum.cols - 1) / step, CV_32F);
                sizes[index] = (SURF_HAAR_SIZE0 + SURF_HAAR_SIZE_INC*layer) << octave;
                sampleSteps[index] = step;
    
                if (0 < layer && layer <= nOctaveLayers)
                    middleIndices[middleIndex++] = index;
                index++;
            }
            step *= 2;
        }
        // Calculate hessian determinant and trace samples in each layer
        for (int i = 0; i < nTotalLayers; i++)
        {
            calcLayerDetAndTrace(sum, sizes[i], sampleSteps[i], dets[i], traces[i]);
        }
    
        // Find maxima in the determinant of the hessian
        for (int i = 0; i < nMiddleLayers; i++)
        {
            int layer = middleIndices[i];
            int octave = i / nOctaveLayers;
            findMaximaInLayer(sum, msum, dets, traces, sizes, keypoints, octave, layer, hessianThreshold, sampleSteps[layer]);
        }
    
        std::sort(keypoints.begin(), keypoints.end(), KeypointGreater());
    }

    2 计算Hessian矩阵的行列式与迹calcLayerDetAndTrace

          这个函数首先定义了尺寸为9的第一层图像的三个模板。模板分别为一个3×5、3×5、4×5的二维数组表示,数组的每一行表示一个黑白块的位置参数。函数里只初始化了第一层图像的模板参数,后面其他组其他层的Harr模板参数都是用resizeHaarPattern 这个函数来计算的。这个函数返回的是一个SurfHF的结构体,这个结构体由两个点及一个权重构成。

    struct SurfHF
    {
        int p0, p1, p2, p3;
        float w;
    
        SurfHF() : p0(0), p1(0), p2(0), p3(0), w(0) {}
    };

    resizeHaarPattern这个函数非常的巧妙,它把模板中的点坐标。转换到在积分图中的相对(模板左上角点)坐标。

    static void
    resizeHaarPattern(const int src[][5], SurfHF* dst, int n, int oldSize, int newSize, int widthStep)
    {
        float ratio = (float)newSize / oldSize;
        for (int k = 0; k < n; k++)
        {
            int dx1 = cvRound(ratio*src[k][0]);
            int dy1 = cvRound(ratio*src[k][1]);
            int dx2 = cvRound(ratio*src[k][2]);
            int dy2 = cvRound(ratio*src[k][3]);
            /*巧妙的坐标转换*/
            dst[k].p0 = dy1*widthStep + dx1; // 转换为一个相对距离,距离模板左上角点的  在积分图中的距离 !!important!!
            dst[k].p1 = dy2*widthStep + dx1; 
            dst[k].p2 = dy1*widthStep + dx2;
            dst[k].p3 = dy2*widthStep + dx2;
            dst[k].w = src[k][4] / ((float)(dx2 - dx1)*(dy2 - dy1));// 原来的+1,+2用 覆盖的所有像素点平均。
        }
    }

    在用积分图计算近似卷积时,用的是calcHaarPattern函数。这个函数比较简单,只用知道左上与右下角坐标即可。

    inline float calcHaarPattern(const int* origin, const SurfHF* f, int n)
    {
        /*orgin即为积分图,n为模板中 黑白 块的个数 */
        double d = 0;
        for (int k = 0; k < n; k++)
            d += (origin[f[k].p0] + origin[f[k].p3] - origin[f[k].p1] - origin[f[k].p2])*f[k].w;
        return (float)d;
    }

    最终我们可以看到了整个calcLayerDetAndTrack的代码

    static void calcLayerDetAndTrace(const Mat& sum, int size, int sampleStep,
        Mat& det, Mat& trace)
    {
        const int NX = 3, NY = 3, NXY = 4;
        const int dx_s[NX][5] = { { 0, 2, 3, 7, 1 }, { 3, 2, 6, 7, -2 }, { 6, 2, 9, 7, 1 } };
        const int dy_s[NY][5] = { { 2, 0, 7, 3, 1 }, { 2, 3, 7, 6, -2 }, { 2, 6, 7, 9, 1 } };
        const int dxy_s[NXY][5] = { { 1, 1, 4, 4, 1 }, { 5, 1, 8, 4, -1 }, { 1, 5, 4, 8, -1 }, { 5, 5, 8, 8, 1 } };
    
        SurfHF Dx[NX], Dy[NY], Dxy[NXY];
    
        if (size > sum.rows - 1 || size > sum.cols - 1)
            return;
        resizeHaarPattern(dx_s, Dx, NX, 9, size, sum.cols);
        resizeHaarPattern(dy_s, Dy, NY, 9, size, sum.cols);
        resizeHaarPattern(dxy_s, Dxy, NXY, 9, size, sum.cols);
    
        /* The integral image 'sum' is one pixel bigger than the source image */
        int samples_i = 1 + (sum.rows - 1 - size) / sampleStep; // 最大能遍历到的 行坐标,因为要减掉一个模板的尺寸
        int samples_j = 1 + (sum.cols - 1 - size) / sampleStep; // 最大能遍历到的 列坐标
    
        /* Ignore pixels where some of the kernel is outside the image */
        int margin = (size / 2) / sampleStep;
    
        for (int i = 0; i < samples_i; i++)
        {
            /*坐标为(i,j)的点是模板左上角的点,所以实际现在模板分析是的i+margin,j+margin点处的响应*/
            const int* sum_ptr = sum.ptr<int>(i*sampleStep);
            float* det_ptr = &det.at<float>(i + margin, margin); // 左边空隙为 margin
            float* trace_ptr = &trace.at<float>(i + margin, margin);
            for (int j = 0; j < samples_j; j++)
            {
                float dx = calcHaarPattern(sum_ptr, Dx, 3);
                float dy = calcHaarPattern(sum_ptr, Dy, 3);
                float dxy = calcHaarPattern(sum_ptr, Dxy, 4);
                sum_ptr += sampleStep;
                det_ptr[j] = dx*dy - 0.81f*dxy*dxy;
                trace_ptr[j] = dx + dy;
            }
        }
    }

    3 局部最大值搜索findMaximaInLayer

    这里算法思路很简单,值得注意的是里面的一些坐标的转换很巧妙,里面比较重的函数就是interpolateKeypoint函数,通过插值计算最大值点。

    /*
    * Maxima location interpolation as described in "Invariant Features from
    * Interest Point Groups" by Matthew Brown and David Lowe. This is performed by
    * fitting a 3D quadratic to a set of neighbouring samples.
    *
    * The gradient vector and Hessian matrix at the initial keypoint location are
    * approximated using central differences. The linear system Ax = b is then
    * solved, where A is the Hessian, b is the negative gradient, and x is the
    * offset of the interpolated maxima coordinates from the initial estimate.
    * This is equivalent to an iteration of Netwon's optimisation algorithm.
    *
    * N9 contains the samples in the 3x3x3 neighbourhood of the maxima
    * dx is the sampling step in x
    * dy is the sampling step in y
    * ds is the sampling step in size
    * point contains the keypoint coordinates and scale to be modified
    *
    * Return value is 1 if interpolation was successful, 0 on failure.
    */
    
    static int
    interpolateKeypoint(float N9[3][9], int dx, int dy, int ds, KeyPoint& kpt)
    {
        Vec3f b(-(N9[1][5] - N9[1][3]) / 2,  // Negative 1st deriv with respect to x
            -(N9[1][7] - N9[1][1]) / 2,  // Negative 1st deriv with respect to y
            -(N9[2][4] - N9[0][4]) / 2); // Negative 1st deriv with respect to s
    
        Matx33f A(
            N9[1][3] - 2 * N9[1][4] + N9[1][5],            // 2nd deriv x, x
            (N9[1][8] - N9[1][6] - N9[1][2] + N9[1][0]) / 4, // 2nd deriv x, y
            (N9[2][5] - N9[2][3] - N9[0][5] + N9[0][3]) / 4, // 2nd deriv x, s
            (N9[1][8] - N9[1][6] - N9[1][2] + N9[1][0]) / 4, // 2nd deriv x, y
            N9[1][1] - 2 * N9[1][4] + N9[1][7],            // 2nd deriv y, y
            (N9[2][7] - N9[2][1] - N9[0][7] + N9[0][1]) / 4, // 2nd deriv y, s
            (N9[2][5] - N9[2][3] - N9[0][5] + N9[0][3]) / 4, // 2nd deriv x, s
            (N9[2][7] - N9[2][1] - N9[0][7] + N9[0][1]) / 4, // 2nd deriv y, s
            N9[0][4] - 2 * N9[1][4] + N9[2][4]);           // 2nd deriv s, s
    
        Vec3f x = A.solve(b, DECOMP_LU);
    
        bool ok = (x[0] != 0 || x[1] != 0 || x[2] != 0) &&
            std::abs(x[0]) <= 1 && std::abs(x[1]) <= 1 && std::abs(x[2]) <= 1;
    
        if (ok)
        {
            kpt.pt.x += x[0] * dx;
            kpt.pt.y += x[1] * dy;
            kpt.size = (float)cvRound(kpt.size + x[2] * ds);
        }
        return ok;
    }
    
    static void findMaximaInLayer(const Mat& sum, const Mat& mask_sum,
        const vector<Mat>& dets, const vector<Mat>& traces,
        const vector<int>& sizes, vector<KeyPoint>& keypoints,
        int octave, int layer, float hessianThreshold, int sampleStep)
    {
        // Wavelet Data
        const int NM = 1;
        const int dm[NM][5] = { { 0, 0, 9, 9, 1 } };
        SurfHF Dm;
    
        int size = sizes[layer];
    
        // 当前层图像的大小
        int layer_rows = (sum.rows - 1) / sampleStep;
        int layer_cols = (sum.cols - 1) / sampleStep;
    
        // 边界区域大小,考虑的下一层的模板大小
        int margin = (sizes[layer + 1] / 2) / sampleStep + 1;
    
        if (!mask_sum.empty())
            resizeHaarPattern(dm, &Dm, NM, 9, size, mask_sum.cols);
    
        int step = (int)(dets[layer].step / dets[layer].elemSize());
    
        for (int i = margin; i < layer_rows - margin; i++)
        {
            const float* det_ptr = dets[layer].ptr<float>(i);
            const float* trace_ptr = traces[layer].ptr<float>(i);
            for (int j = margin; j < layer_cols - margin; j++)
            {
                float val0 = det_ptr[j]; // 中心点的值
                if (val0 > hessianThreshold)
                {
                    // 模板左上角的坐标
                    int sum_i = sampleStep*(i - (size / 2) / sampleStep);
                    int sum_j = sampleStep*(j - (size / 2) / sampleStep);
    
                    /* The 3x3x3 neighbouring samples around the maxima.
                    The maxima is included at N9[1][4] */
    
                    const float *det1 = &dets[layer - 1].at<float>(i, j);
                    const float *det2 = &dets[layer].at<float>(i, j);
                    const float *det3 = &dets[layer + 1].at<float>(i, j);
                    float N9[3][9] = { { det1[-step - 1], det1[-step], det1[-step + 1],
                        det1[-1], det1[0], det1[1],
                        det1[step - 1], det1[step], det1[step + 1] },
                        { det2[-step - 1], det2[-step], det2[-step + 1],
                        det2[-1], det2[0], det2[1],
                        det2[step - 1], det2[step], det2[step + 1] },
                        { det3[-step - 1], det3[-step], det3[-step + 1],
                        det3[-1], det3[0], det3[1],
                        det3[step - 1], det3[step], det3[step + 1] } };
    
                    /* Check the mask - why not just check the mask at the center of the wavelet? */
                    if (!mask_sum.empty())
                    {
                        const int* mask_ptr = &mask_sum.at<int>(sum_i, sum_j);
                        float mval = calcHaarPattern(mask_ptr, &Dm, 1);
                        if (mval < 0.5)
                            continue;
                    }
    
                    /* 检测val0,是否在N9里极大值,??为什么不检测极小值呢*/
                    if (val0 > N9[0][0] && val0 > N9[0][1] && val0 > N9[0][2] &&
                        val0 > N9[0][3] && val0 > N9[0][4] && val0 > N9[0][5] &&
                        val0 > N9[0][6] && val0 > N9[0][7] && val0 > N9[0][8] &&
                        val0 > N9[1][0] && val0 > N9[1][1] && val0 > N9[1][2] &&
                        val0 > N9[1][3] && val0 > N9[1][5] &&
                        val0 > N9[1][6] && val0 > N9[1][7] && val0 > N9[1][8] &&
                        val0 > N9[2][0] && val0 > N9[2][1] && val0 > N9[2][2] &&
                        val0 > N9[2][3] && val0 > N9[2][4] && val0 > N9[2][5] &&
                        val0 > N9[2][6] && val0 > N9[2][7] && val0 > N9[2][8])
                    {
                        /* Calculate the wavelet center coordinates for the maxima */
                        float center_i = sum_i + (size - 1)*0.5f;
                        float center_j = sum_j + (size - 1)*0.5f;
    
                        KeyPoint kpt(center_j, center_i, (float)sizes[layer],
                            -1, val0, octave, CV_SIGN(trace_ptr[j]));
    
                        /* 局部极大值插值,用Hessian,类似于SIFT里的插值,里面没有迭代5次,只进行了一次查找,why?  */
                        int ds = size - sizes[layer - 1];
                        int interp_ok = interpolateKeypoint(N9, sampleStep, sampleStep, ds, kpt);
    
                        /* Sometimes the interpolation step gives a negative size etc. */
                        if (interp_ok)
                        {
                            /*printf( "KeyPoint %f %f %d\n", point.pt.x, point.pt.y, point.size );*/
                            keypoints.push_back(kpt);
                        }
                    }
                }
            }
        }
    }

    4 特征点描述子生成

    特征点描述子的生成这一部分的代码主要是通过SURFInvoker这个类来实现。在主流程中,通过一个parallel_for_()函数来并发计算。

    struct SURFInvoker
    {
        enum{ORI_RADIUS = 6, ORI_WIN = 60, PATCH_SZ = 20};
        // Parameters
        const Mat* img;
        const Mat* sum;
        vector<KeyPoint>* keypoints;
        Mat* descriptors;
        bool extended;
        bool upright;
    
        // Pre-calculated values
        int nOriSamples;
        vector<Point> apt; // 特征点周围用于描述方向的邻域的点
        vector<float> aptw; // 描述 方向时的 高斯 权
        vector<float> DW;
    
    
        SURFInvoker(const Mat& _img, const Mat& _sum,
            vector<KeyPoint>& _keypoints, Mat& _descriptors,
            bool _extended, bool _upright)
        {
            keypoints = &_keypoints;
            descriptors = &_descriptors;
            img = &_img;
            sum = &_sum;
            extended = _extended;
            upright = _upright;
    
            // 用于描述特征点的 方向的 邻域大小: 12*sigma+1 (sigma =1.2) 因为高斯加权的核的参数为2sigma
            // nOriSampleBound为 矩形框内点的个数
            const int nOriSampleBound = (2 * ORI_RADIUS + 1)*(2 * ORI_RADIUS + 1); // 这里把s近似为1 ORI_DADIUS = 6s
    
            // 分配大小 
            apt.resize(nOriSampleBound);
            aptw.resize(nOriSampleBound);
            DW.resize(PATCH_SZ*PATCH_SZ); // PATHC_SZ为特征描述子的 区域大小 20s(s 这里初始为1了)
    
            /* 计算特征点方向用的 高斯分布 权值与坐标 */
            Mat G_ori = getGaussianKernel(2 * ORI_RADIUS + 1, SURF_ORI_SIGMA, CV_32F); // SURF_ORI_SIGMA = 1.2 *2 =2.5
            nOriSamples = 0;
            for (int i = -ORI_RADIUS; i <= ORI_RADIUS; i++)
            {
                for (int j = -ORI_RADIUS; j <= ORI_RADIUS; j++)
                {
                    if (i*i + j*j <= ORI_RADIUS*ORI_RADIUS) // 限制在圆形区域内
                    {
                        apt[nOriSamples] = cvPoint(i, j);
                        // 下面这里有个坐标转换,因为i,j都是从-ORI_RADIUS开始的。
                        aptw[nOriSamples++] = G_ori.at<float>(i + ORI_RADIUS, 0) * G_ori.at<float>(j + ORI_RADIUS, 0);
                    }
                }
            }
            CV_Assert(nOriSamples <= nOriSampleBound); // nOriSamples为圆形区域内的点,nOriSampleBound是正方形区域的点
    
            /* 用于特征点描述子的高斯 权值 */
            Mat G_desc = getGaussianKernel(PATCH_SZ, SURF_DESC_SIGMA, CV_32F); // 用于生成特征描述子的 高斯加权 sigma = 3.3s (s初取1)
            for (int i = 0; i < PATCH_SZ; i++)
            {
                for (int j = 0; j < PATCH_SZ; j++)
                    DW[i*PATCH_SZ + j] = G_desc.at<float>(i, 0) * G_desc.at<float>(j, 0);
            }
    
            /* x与y方向上的 Harr小波,参数为4s */
            const int NX = 2, NY = 2;
            const int dx_s[NX][5] = { { 0, 0, 2, 4, -1 }, { 2, 0, 4, 4, 1 } };
            const int dy_s[NY][5] = { { 0, 0, 4, 2, 1 }, { 0, 2, 4, 4, -1 } };
    
            float X[nOriSampleBound], Y[nOriSampleBound], angle[nOriSampleBound]; // 用于计算特生点主方向
            uchar PATCH[PATCH_SZ + 1][PATCH_SZ + 1];
            float DX[PATCH_SZ][PATCH_SZ], DY[PATCH_SZ][PATCH_SZ]; // 20s * 20s区域的 梯度值
            CvMat matX = cvMat(1, nOriSampleBound, CV_32F, X);
            CvMat matY = cvMat(1, nOriSampleBound, CV_32F, Y);
            CvMat _angle = cvMat(1, nOriSampleBound, CV_32F, angle);
            Mat _patch(PATCH_SZ + 1, PATCH_SZ + 1, CV_8U, PATCH);
    
            int dsize = extended ? 128 : 64;
    
            int k, k1 = 0, k2 = (int)(*keypoints).size();// k2为Harr小波的 模板尺寸
            float maxSize = 0;
            for (k = k1; k < k2; k++)
            {
                maxSize = std::max(maxSize, (*keypoints)[k].size);
            }
            // maxSize*1.2/9 表示最大的尺度 s
            int imaxSize = std::max(cvCeil((PATCH_SZ + 1)*maxSize*1.2f / 9.0f), 1);
            Ptr<CvMat> winbuf = cvCreateMat(1, imaxSize*imaxSize, CV_8U);
            for (k = k1; k < k2; k++)
            {
                int i, j, kk, nangle;
                float* vec;
                SurfHF dx_t[NX], dy_t[NY];
                KeyPoint& kp = (*keypoints)[k];
                float size = kp.size;
                Point2f center = kp.pt;
                /* s是当前层的尺度参数 1.2是第一层的参数,9是第一层的模板大小*/
                float s = size*1.2f / 9.0f;
                /* grad_wav_size是 harr梯度模板的大小 边长为 4s */
                int grad_wav_size = 2 * cvRound(2 * s);
                if (sum->rows < grad_wav_size || sum->cols < grad_wav_size)
                {
                    /* when grad_wav_size is too big,
                    * the sampling of gradient will be meaningless
                    * mark keypoint for deletion. */
                    kp.size = -1;
                    continue;
                }
    
                float descriptor_dir = 360.f - 90.f;
                if (upright == 0)
                {
                    // 这一步 是计算梯度值,先将harr模板放大,再根据积分图计算,与前面求D_x,D_y一致类似
                    resizeHaarPattern(dx_s, dx_t, NX, 4, grad_wav_size, sum->cols);
                    resizeHaarPattern(dy_s, dy_t, NY, 4, grad_wav_size, sum->cols);
                    for (kk = 0, nangle = 0; kk < nOriSamples; kk++)
                    {
                        int x = cvRound(center.x + apt[kk].x*s - (float)(grad_wav_size - 1) / 2);
                        int y = cvRound(center.y + apt[kk].y*s - (float)(grad_wav_size - 1) / 2);
                        if (y < 0 || y >= sum->rows - grad_wav_size ||
                            x < 0 || x >= sum->cols - grad_wav_size)
                            continue;
                        const int* ptr = &sum->at<int>(y, x);
                        float vx = calcHaarPattern(ptr, dx_t, 2);
                        float vy = calcHaarPattern(ptr, dy_t, 2);
                        X[nangle] = vx*aptw[kk];
                        Y[nangle] = vy*aptw[kk];
                        nangle++;
                    }
                    if (nangle == 0)
                    {
                        // No gradient could be sampled because the keypoint is too
                        // near too one or more of the sides of the image. As we
                        // therefore cannot find a dominant direction, we skip this
                        // keypoint and mark it for later deletion from the sequence.
                        kp.size = -1;
                        continue;
                    }
                    matX.cols = matY.cols = _angle.cols = nangle;
                    // 计算邻域内每个点的 梯度角度
                    cvCartToPolar(&matX, &matY, 0, &_angle, 1);
    
                    float bestx = 0, besty = 0, descriptor_mod = 0;
                    for (i = 0; i < 360; i += SURF_ORI_SEARCH_INC) // SURF_ORI_SEARCH_INC 为扇形区域扫描的步长
                    {
                        float sumx = 0, sumy = 0, temp_mod;
                        for (j = 0; j < nangle; j++)
                        {
                            // d是 分析到的那个点与 现在主方向的偏度
                            int d = std::abs(cvRound(angle[j]) - i);
                            if (d < ORI_WIN / 2 || d > 360 - ORI_WIN / 2)
                            {
                                sumx += X[j];
                                sumy += Y[j];
                            }
                        }
                        temp_mod = sumx*sumx + sumy*sumy;
                        // descriptor_mod 是最大峰值
                        if (temp_mod > descriptor_mod)
                        {
                            descriptor_mod = temp_mod;
                            bestx = sumx;
                            besty = sumy;
                        }
                    }
                    descriptor_dir = fastAtan2(-besty, bestx);
                }
                kp.angle = descriptor_dir;
                if (!descriptors || !descriptors->data)
                    continue;
    
                /* 用特征点周围20*s为边长的邻域 计算特征描述子 */
                int win_size = (int)((PATCH_SZ + 1)*s);
                CV_Assert(winbuf->cols >= win_size*win_size);
                Mat win(win_size, win_size, CV_8U, winbuf->data.ptr);
    
                if (!upright)
                {
                    descriptor_dir *= (float)(CV_PI / 180); // 特征点的主方向 弧度值
                    float sin_dir = -std::sin(descriptor_dir); //  - sin dir
                    float cos_dir = std::cos(descriptor_dir);
    
                    float win_offset = -(float)(win_size - 1) / 2;
                    float start_x = center.x + win_offset*cos_dir + win_offset*sin_dir;
                    float start_y = center.y - win_offset*sin_dir + win_offset*cos_dir;
                    uchar* WIN = win.data;
    
                    int ncols1 = img->cols - 1, nrows1 = img->rows - 1;
                    size_t imgstep = img->step;
                    for (i = 0; i < win_size; i++, start_x += sin_dir, start_y += cos_dir)
                    {
                        double pixel_x = start_x;
                        double pixel_y = start_y;
                        for (j = 0; j < win_size; j++, pixel_x += cos_dir, pixel_y -= sin_dir)
                        {
                            int ix = cvFloor(pixel_x), iy = cvFloor(pixel_y);
                            if ((unsigned)ix < (unsigned)ncols1 &&
                                (unsigned)iy < (unsigned)nrows1)
                            {
                                float a = (float)(pixel_x - ix), b = (float)(pixel_y - iy);
                                const uchar* imgptr = &img->at<uchar>(iy, ix);
                                WIN[i*win_size + j] = (uchar)
                                    cvRound(imgptr[0] * (1.f - a)*(1.f - b) +
                                    imgptr[1] * a*(1.f - b) +
                                    imgptr[imgstep] * (1.f - a)*b +
                                    imgptr[imgstep + 1] * a*b);
                            }
                            else
                            {
                                int x = std::min(std::max(cvRound(pixel_x), 0), ncols1);
                                int y = std::min(std::max(cvRound(pixel_y), 0), nrows1);
                                WIN[i*win_size + j] = img->at<uchar>(y, x);
                            }
                        }
                    }
                }
                else
                {
    
                    float win_offset = -(float)(win_size - 1) / 2;
                    int start_x = cvRound(center.x + win_offset);
                    int start_y = cvRound(center.y - win_offset);
                    uchar* WIN = win.data;
                    for (i = 0; i < win_size; i++, start_x++)
                    {
                        int pixel_x = start_x;
                        int pixel_y = start_y;
                        for (j = 0; j < win_size; j++, pixel_y--)
                        {
                            int x = MAX(pixel_x, 0);
                            int y = MAX(pixel_y, 0);
                            x = MIN(x, img->cols - 1);
                            y = MIN(y, img->rows - 1);
                            WIN[i*win_size + j] = img->at<uchar>(y, x);
                        }
                    }
                }
                // Scale the window to size PATCH_SZ so each pixel's size is s. This
                // makes calculating the gradients with wavelets of size 2s easy
                resize(win, _patch, _patch.size(), 0, 0, INTER_AREA);
    
                // Calculate gradients in x and y with wavelets of size 2s
                for (i = 0; i < PATCH_SZ; i++)
                for (j = 0; j < PATCH_SZ; j++)
                {
                    float dw = DW[i*PATCH_SZ + j]; // 高斯加权系数
                    float vx = (PATCH[i][j + 1] - PATCH[i][j] + PATCH[i + 1][j + 1] - PATCH[i + 1][j])*dw;
                    float vy = (PATCH[i + 1][j] - PATCH[i][j] + PATCH[i + 1][j + 1] - PATCH[i][j + 1])*dw;
                    DX[i][j] = vx;
                    DY[i][j] = vy;
                }
    
                // Construct the descriptor
                vec = descriptors->ptr<float>(k);
                for (kk = 0; kk < dsize; kk++)
                    vec[kk] = 0;
                double square_mag = 0;
                if (extended)
                {
                    // 128维描述子,考虑dx与dy的正负号
                    for (i = 0; i < 4; i++)
                    for (j = 0; j < 4; j++)
                    {
                        // 每个方块内是一个5s * 5s的区域,每个方法由8个特征描述
                        for (int y = i * 5; y < i * 5 + 5; y++)
                        {
                            for (int x = j * 5; x < j * 5 + 5; x++)
                            {
                                float tx = DX[y][x], ty = DY[y][x];
                                if (ty >= 0)
                                {
                                    vec[0] += tx;
                                    vec[1] += (float)fabs(tx);
                                }
                                else {
                                    vec[2] += tx;
                                    vec[3] += (float)fabs(tx);
                                }
                                if (tx >= 0)
                                {
                                    vec[4] += ty;
                                    vec[5] += (float)fabs(ty);
                                }
                                else {
                                    vec[6] += ty;
                                    vec[7] += (float)fabs(ty);
                                }
                            }
                        }
                        for (kk = 0; kk < 8; kk++)
                            square_mag += vec[kk] * vec[kk];
                        vec += 8;
                    }
                }
                else
                {
                    // 64位描述子
                    for (i = 0; i < 4; i++)
                    for (j = 0; j < 4; j++)
                    {
                        for (int y = i * 5; y < i * 5 + 5; y++)
                        {
                            for (int x = j * 5; x < j * 5 + 5; x++)
                            {
                                float tx = DX[y][x], ty = DY[y][x];
                                vec[0] += tx; vec[1] += ty;
                                vec[2] += (float)fabs(tx); vec[3] += (float)fabs(ty);
                            }
                        }
                        for (kk = 0; kk < 4; kk++)
                            square_mag += vec[kk] * vec[kk];
                        vec += 4;
                    }
                }
                // 归一化 描述子 以满足 光照不变性
                vec = descriptors->ptr<float>(k);
                float scale = (float)(1. / (sqrt(square_mag) + DBL_EPSILON));
                for (kk = 0; kk < dsize; kk++)
                    vec[kk] *= scale;
            }
        }
    };

    from:http://www.cnblogs.com/ronny/p/4045979.html

    from:https://www.cnblogs.com/ronny/p/4048213.html

    展开全文
  • SURF(speed-up robust features,即加速健壮特征)算法是一种尺度不变、旋转不变且性能较好的算法,但其稳定性和时间复杂度不足,不稳定的特征点...实验结果证明,改进算法的配准性能与SURF算法相当,配准速度比SURF算
  • 针对数字图像版权中的复制粘贴篡改问题,提出FI-SURF (flip ...实验证明,FI-SURF算法在保留SURF算法运算速度快、顽健性强等优点的前提下,可有效检测出经过镜像翻转的复制粘贴区域,计算出复制粘贴区域的轮廓。
  • 运动估计是图像超分辨率复原重要的步骤,直接影响最终的复原结果。...所提出的基于改进SURF算法的POCS算法对比其他图像复原算法,得到了峰值信噪比值较高、均方误差较低的复原图像,说明该算法的有效性。
  • SIFT与SURF算法

    千次阅读 2020-09-22 20:57:21
    SIFT与SURF算法 1. SIFT与SURF的特征 SIFT即尺度不变特征变换,是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。 Sift算法的优点是特征稳定,对旋转、尺度...

    SIFT与SURF算法

    1. SIFT与SURF的特征

    SIFT即尺度不变特征变换,是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。

    Sift算法的优点是特征稳定,对旋转、尺度变换、亮度保持不变性,对视角变换、噪声也有一定程度的稳定性;缺点是实时性不高,并且对于边缘光滑目标的特征点提取能力较弱。

    Surf(Speeded Up Robust Features)改进了特征的提取和描述方式,用一种更为高效的方式完成特征的提取和描述。

    2. SIFT算法实现流程

    2.1 关键点

    2.1.1 提取关键点

    关键点是一些十分突出的不会因光照、尺度、旋转等因素而消失的点,比如角点、边缘点、暗区域的亮点以及亮区域的暗点。此步骤是搜索所有尺度空间上的图像位置。通过高斯微分函数来识别潜在的具有尺度和旋转不变的兴趣点。(使用差分高斯(DoG)函数较多)

    2.1.2 定位关键点并确立关键点

    然后,对关键点进行定位和滤波。
    在每个候选的位置上,通过一个拟合精细的模型来确定位置和尺度。关键点的选择依据于它们的稳定程度。然后基于图像局部的梯度方向,分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性。

    2.1.3 特征点描述

    局部图像梯度在选定的尺度上,在一个关键点的邻域内进行测量。通过原图和特征图的各个关键点的特征向量,进行两两比较匹配程度,建立对应关系。在每个特征点周围的邻域内,在选定的尺度上测量图像的局部梯度,这些梯度被变换成一种表示,这种表示允许比较大的局部形状的变形和光照变换。

    2.2 构建尺度空间

    尺度空间作为机器处理图像时常用的处理方法,其实就是考虑到图像目标的大小对机器的识别影响。对小目标,采用局部特征观察;对于大目标,模糊细节处理。为了能让不同初度图片的目标能统一让机器识别出,就需要在目标上找到一个统一标准让机器熟知。

    SIFT算法在构建尺度空间时候采取高斯核函数进行滤波,使原始图像保存最多的细节特征,经过高斯滤波后细节特征逐渐减少来模拟大尺度情况下的特征表示。

    2.2.1 差分金字塔的构建

    要说差分(DOG)金字塔就得先了解高斯金字塔的搭建。高斯金字塔的搭建过程分为两步:

    1. 对图像做平滑处理(加高斯滤波模糊处理)
    2. 对图像做降采样
      降采样过程就是金字塔的搭建过程。具体的可以移步:
      https://blog.csdn.net/dcrmg/article/details/52561656
      在这里插入图片描述

    高斯金字塔有多组,每组又有多层。一组中的多个层之间的尺度是不一样的(也就是使用的高斯参数σ是不同的),相邻两层之间的尺度相差一个比例因子k。如果每组有S层,则 lnk = ln(2)*1/s。上一组图像的最底层图像是由下一组中尺度为2σ的图像进行因子为2的降采样得到的(高斯金字塔先从底层建立)。σ称为尺度空间因子,它是高斯正态分布的标准差,反映了图像被模糊的程度,其值越大图像越模糊,对应的尺度也就越大。

    差分(DoG)金字塔,DOG字塔是在高斯金字塔的基础上构建起来的,其实生成高斯金字塔的目的就是为了构建DOG金字塔。
    DOG金字塔的第1组第1层是由高斯金字塔的第1组第2层减第1组第1层得到的。
    以此类推,逐组逐层生成每一个差分图像,所有差分图像构成差分金字塔。概括为DOG金字塔的第o组第l层图像是有高斯金字塔的第o组第l+1层减第o组第l层得到的。
    DOG金字塔的构建可以用下图描述:
    dog金字塔的搭建过程
    将相邻的两个高斯空间的图像相减就得到了DoG的响应图像。为了得到DoG图像,先要构建高斯尺度空间,而高斯的尺度空间可以在图像金字塔降采样的基础上加上高斯滤波得到,也就是对图像金字塔的每层图像使用不同的参数σ进行高斯模糊,使每层金字塔有多张高斯模糊过的图像。降采样时,金字塔上边一组图像的第一张是由其下面一组图像倒数第三张降采样得到。

    下面是构建高斯金字塔的过程,通俗易懂:(文末有原文链接)

    在这里插入图片描述

    2.3 DoG空间极值检测

    特征点是由DOG空间的局部极值点组成的。极值点在二维空间表示比左右两边的函数值都大的极点,在这儿表示的是该点空间上的领域内都大于(或都小于)图中X点的点叫极值点,该点周围有26的领域像素点。
    在这里插入图片描述
    从上面的描述中可以知道,每组图像的第一层和最后一层是无法进行比较取得极值的。为了满足尺度变换的连续性,在每一组图像的顶层继续使用高斯模糊生成3幅图像,高斯金字塔每组有S+3层图像,DoG金字塔的每组有S+2组图像。

    2.4 剔除出不好的极值点

    通过比较检测得到的DoG的局部极值点实际是在离散的空间搜索得到的,由于离散空间是对连续空间采样得到的结果,因此在离散空间找到的极值点不一定是真正意义上的极值点,因此要设法将不满足条件的点剔除掉。可以通过尺度空间DoG函数进行曲线拟合寻找极值点,这一步的本质是去掉DoG局部曲率非常不对称的点。
    要剔除掉的不符合要求的点主要有两种:

    1. 低对比度的特征点(利用泰勒展开,设置阈值排除)
    2. 不稳定的边缘响应点

    2.5 主方向的确立

    经过上面的步骤已经找到了在不同尺度下都存在的特征点,为了实现图像旋转不变性,需要给特征点的方向进行赋值。利用特征点邻域像素的梯度分布特性来确定其方向参数,再利用图像的梯度直方图求取关键点局部结构的稳定方向。
    在这里插入图片描述

    以关键点为原点,一定区域内的图像像素点确定关键点方向。在完成关键点的梯度计算后,使用直方图统计邻域内像素的梯度和方向。梯度直方图将0~360度的方向范围分为36个柱,其中每柱10度。如下图所示,直方图的峰值方向代表了关键点的主方向,方向直方图的峰值则代表了该特征点处邻域梯度的方向,以直方图中最大值作为该关键点的主方向。为了增强匹配的鲁棒性,只保留峰值大于主方向峰值80%的方向作为该关键点的辅方向。

    实验证明:描述子采用4×4×8=128维SIFT向量表征,综合效果最优(不变性与独特性)。

    2.6 关键点匹配

    分别对模板图和实时图建立关键点描述子集合。目标的识别是通过两点集内关键点描述子的比对来完成。具有128维的关键点描述子的相似性度量采用欧式距离。
    匹配可采取穷举法完成,但所花费的时间太多。所以一般采用kd树的数据结构来完成搜索。搜索的内容是以目标图像的关键点为基准,搜索与目标图像的特征点最邻近的原图像特征点和次邻近的原图像特征点。
    Kd树如下如所示,是个平衡二叉树。
    在这里插入图片描述

    3. SURF算法实现流程

    3.1 构建Hessian(黑塞矩阵)

    黑塞矩阵用于生成所有感兴趣的点,是一个二阶偏导构成的矩阵,物理意义是函数的局部曲率。由德国数学家Ludwin Otto Hessian于19世纪提出。
    surf构造的金字塔图像与sift有很大不同,Sift采用的是DOG图像,而surf采用的是Hessian矩阵行列式近似值图像。Hessian矩阵是Surf算法的核心,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点),为下文的特征提取做好基础。

    每一个像素点都可以求出一个Hessian矩阵。在这里插入图片描述
    Surf算法通过Hessian矩阵的模来判别局部最大值,即:
    在这里插入图片描述
    当该判别式取极大值时,即当前的像素点是该点领域内最亮的或最暗的点,由此来判断关键点的位置。
    另外,为了满足图像的尺度无关性,需要在黑塞矩阵构造前进行高斯滤波,即用二阶高斯滤波函数乘以原图像。但高斯滤波函数的计算量太大,SURF算法采用盒式滤波器替代,盒式滤波器是将滤波过程转化为不同区域内像素点的加减乘除的问题。
    因此每个像素的黑塞矩阵行列式为:
    在这里插入图片描述
    此处0.9用来权衡盒式滤波带来的误差,其他的与上面说的一样。

    3.2 尺度空间的构建

    和Sift类似,SURF也是通过构建金字塔的形式 。不同的是,Sift中下一组图像的尺寸是上一组的一半,同一组间图像尺寸一样,但是所使用的高斯模糊系数逐渐增大;而在Surf中,不同组间图像的尺寸都是一致的,但不同组间使用的盒式滤波器的模板尺寸逐渐增大,同一组间不同层间使用相同尺寸的滤波器,但是滤波器的模糊系数逐渐增大。

    3.3 特征点定位

    特征点的定位过程Surf和Sift保持一致,将经过Hessian矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点。
    在这里插入图片描述

    3.4 方向分配

    Sift特征点方向分配是采用在特征点邻域内统计其梯度直方图;
    在Surf中,采用的是统计特征点圆形邻域内的harr小波特征。
    在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以一定间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向。

    5. 生成特征点描述子

    在Sift中,是取特征点周围44个区域块,统计每小块内8个梯度方向,用着128维向量作为Sift特征的描述子。
    Surf算法中,也是在特征点周围取一个44的矩形区域块,但是所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,这里的水平和垂直方向都是相对主方向而言的。该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向。把这4个值作为每个子块区域的特征向量,所以一共有444=64维向量作为Surf特征的描述子,比Sift特征的描述子减少了一半。
    在这里插入图片描述

    6. 特征点匹配

    与Sift特征点匹配类似,Surf也是通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的匹配度越好。

    不同的是Surf还加入了Hessian矩阵迹的判断,如果两个特征点的矩阵迹正负号相同,代表这两个特征具有相同方向上的对比度变化,如果不同,说明这两个特征点的对比度变化方向是相反的,即使欧氏距离为0,也直接予以排除。

    借鉴链接:
    https://www.cnblogs.com/wangguchangqing/p/4853263.html#autoid-0-0-0SIFT特征详解
    https://www.cnblogs.com/jinjidexuetu/p/90ace4e8de574e3d5f4e6ac16a0dc157.html
    SURF算法
    https://blog.csdn.net/qq_37374643/article/details/88606351SIFT算法原理。

    (写在最后,第一次"写"的博客,其实是整理,ctrlcv的过程,将我所看到的两个算法整理起来理解,方便以后查看,感谢各位大佬的随笔受益颇多)

    展开全文
  • 针对复杂背景下汉字匹配准确率较低的问题,提出一种改进SURF 算法。该算法利用灰度分级的字符分割方法,先进行灰度分割增强图像的对比度,采用灰度分级树将图像中的所有像素处理为树的模式进行计算,根据灰度分级...
  • 用Kinect传感器获得环境彩色和深度图像,再采用基于特征点信息的改进SURF算法完成彩色图像特征点的提取与匹配,提高匹配的正确率和鲁棒性,随后进行与深度图像的映射,实现三维重建并利用最小平方中值定理估计出...
  • 在分析了具有尺度不变特征的鲁棒特征加速算法(SURF算法)的基础上,提出了一种基于高斯颜色模型的增维彩色SURF算法.该算法将RGB颜色模型转换到高斯颜色模型,使用SURF算法(增加了48维颜色特征描述向量)进行匹配,再...
  • 针对快速鲁棒特征(SURF)算法的拼接结果图像,会出现明显的拼接线与过渡带的问题,...实验表明,改进算法能保持SURF算法的优良特性,进一步提高SURF算法匹配效率,并能有效消除拼接线和过渡带,使图像拼接质量得到显著提高。
  • SIFT算法学习笔记 尺度不变特征转换(Scale-invariant feature transform)是一种用来侦测与描述影像中的局部性特征的视觉算法,即通过求一幅图中的特征点及其有关尺度和方向的描述子得到特征,并进行图像特征点匹配...

    SIFT、SURF、ORB算法学习笔记

    一、 SIFT

        尺度不变特征转换(Scale-invariant feature transform)是一种用来侦测与描述影像中的局部性特征的视觉算法,即通过求一幅图中的特征点及其有关尺度和方向的描述子得到特征,并进行图像特征点匹配。SIFT所查找到的关键点是一些十分突出,不会因光照,仿射变换和噪音等因素而变化的点,如角点、边缘点、暗区的亮点及亮区的暗点等,噪声也保持一定程度的稳定性,除此之外SIFT还具有独特性,多量性,高速性,可扩展性等特点。

    (1)构建尺度空间

    ①尺度空间的表示
        二维图像的尺度空间函数L,高斯函数与原图像的卷积。 L ( x , y , σ ) = G ( x , y , σ D ) ∗ I ( x , y ) (公式1) L(x,y,\sigma)=G(x,y,\sigma_D)*I(x,y) \tag{公式1} L(x,y,σ)=G(x,y,σD)I(x,y)(1)

    其中二维高斯函数为:
    G σ ( x , y ) = 1 2 π σ 2 e x p ( − x 2 + y 2 2 σ 2 ) (公式2) G_\sigma(x,y)=\frac{1}{\sqrt{2\pi \sigma^2}}exp(-\frac{x^2+y^2}{2\sigma^2}) \tag{公式2} Gσ(x,y)=2πσ2 1exp(2σ2x2+y2)(2)

    符号“*”表示卷积。
        在二维空间中,这个公式生成的曲面的等高线是从中心开始呈正态分布的同心圆,如图分布不为零的像素组成的卷积矩阵与原始图像做变换。每个像素的值都是周围相邻像素值的加权平均。(根据高斯函数的可分离性,可对二维高斯模糊函数进行改进。)

    图1.1 二维高斯函数的曲面表示

    ② 高斯金字塔的构建
        尺度空间在实现时使用高斯金字塔表示,高斯金字塔的构建分为两部分:对图像做不同尺度的高斯模糊;对图像做降采样(隔点采样)。后来有(2)点改进得到了高斯差分金字塔。

    (2)使用DOG近似LOG定位极值点(关键点)

    ①(laplacian-gauss)LOG
        LOG(高斯-拉普拉斯算子)是一种边缘检测算子,产生稳定的图像特征。公式为:
    L o g ≜ Δ G σ ( x , y ) + ∂ 2 G σ ( x , y ) ∂ y 2 = x 2 + y 2 − 2 σ 2 σ 4 e ( x 2 + y 2 ) 2 σ 2 (公式3) Log \triangleq \Delta G_\sigma(x,y)+ \frac{\partial^2G_\sigma(x,y)}{\partial y^2}=\frac{x^2+y^2-2\sigma^2}{\sigma^4}e^{\frac{(x^2+y^2)}{2\sigma^2}} \tag{公式3} LogΔGσ(x,y)+y22Gσ(x,y)=σ4x2+y22σ2e2σ2(x2+y2)(3)
        在此,LOG空间中的极值点被初步筛选特征点,由于LOG计算比较耗时,故采用DOG计算(DOG是LOG计算的近似,如图1.2所示)。

    图1.2 DOG与LOG的比较

    ②Difference of Gaussian(DOG):
        为了有效的在尺度空间检测到稳定的关键点,作者提出了高斯差分尺度空间(DOG scale-space),公式为,利用不同尺度的高斯差分核与图像卷积生成。
    在实际计算时,使用高斯金字塔每组中相邻上下两层图像相减(如图1.3),得到高斯差分图像,接着进行极值检测。
    D ( x , y , σ ) = L ( x , y , k σ ) − L ( x , y , σ ) (公式4) D(x,y,\sigma)=L(x,y,k\sigma)-L(x,y,\sigma) \tag{公式4} D(x,y,σ)=L(x,y,kσ)L(x,y,σ)(4)

    图1.3 高斯差分金字塔的生成
         通过比较当前点周围8个点的大小与上层9个和下层9个点大小确定当前点是否是极值点,总共同9*2+8 = 26个像素点比较,是极值点,就认定该点为初步筛选出的特征点。然后接着通过拟和三维二次函数以精确确定关键点的位置和3尺度(达到亚像素精度),同时去除低对比度的关键点和不稳定的边缘响应点。
    图1.4 选取特征点

    (3)计算关键点方向

        为了使描述符具有旋转不变性,需要利用图像的局部特征为给每一个关键点分配一个基准方向,使用图像梯度的方法求取局部结构的稳定方向。对于在DOG金字塔中检测出的关键点,采集其所在高斯金字塔图像3σ邻域窗口内像素的梯度和方向分布特征。在完成关键点的梯度计算后,生成直方图如图4,来统计邻域内像素的梯度和方向。方向直方图的峰值则代表了该特征点处邻域梯度的方向,以直方图中最大值作为该关键点的主方向,保留峰值大于主方向峰值80%的方向作为该关键点的辅方向。通过以上步骤,对于每一个关键点,拥有三个信息:位置、尺度以及方向。

    图1.5 关键点方向直方图

    (4)关键点描述子的生成

        接下来建立一个描述符,以便于提高特征点正确匹配的概率,用一组向量将这个关键点描述出来,使其不随各种变化而改变,比如光照变化、视角变化等。Lowe作者建议描述子使用在关键点尺度空间内44的窗口中计算的8个方向的梯度信息,共44*8=128维向量表征作为每一个特征点的描述子。特征向量形成后,为了去除光照变化的影响,需要对它们进行归一化处理,并设置门限值,最后按特征点的尺度对特征描述向量进行排序。至此,SIFT特征描述向量生成。

    (5)代码实现

    %matplotlib inline
    import numpy as np
    import cv2
    from matplotlib import pyplot as plt
    from PIL import Image
    
    #导入两张图片
    imgname_01 = './01.jpg'
    imgname_02 = './02.jpg'
    #利用现有的cv2模块方法,创建一个SIFT的对象
    sift = cv2.xfeatures2d.SIFT_create()```
    
    
    
    img_01 = cv2.imread(imgname_01)
    img_02 = cv2.imread(imgname_02)
    
    #显示原有的2张图片
    hmerge_original = np.hstack((img_01, img_02)) #水平拼接
    #由于plt 和cv2 的处理通道不同 cv2是BGR  plt是RGB 因此需要利用到cv2.cvtColor方法转换
    img_original = cv2.cvtColor(hmerge_original, cv2.COLOR_BGR2RGB) 
    
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_original)
    ax1.set_title("Image_original")
    plt.savefig('Image_original.png')
    
    '''
    gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) #灰度处理图像
    
    img_plt = cv2.cvtColor(img1, cv2.COLOR_BGR2RGB) #灰度处理图像
    plt.imshow(img_plt)
    gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
    
    img_plt02 = cv2.cvtColor(img2, cv2.COLOR_BGR2RGB) #灰度处理图像
    plt.imshow(img_plt02)
    '''
    
    keypoint_01, descriptor_01 = sift.detectAndCompute(img_01,None)   #keypoint是特征点,descriptor是描述子
    keypoint_02, descriptor_02 = sift.detectAndCompute(img_02,None)  
    
    #test
    print(type(keypoint_01))
    print(len(str(keypoint_01)))
    print(type(descriptor_01))
    print(descriptor_01.shape)
    
    
    
    img_03 = cv2.drawKeypoints(img_01,keypoint_01,img_01,color=(255,0,255)) #画出特征点,并显示为红色圆圈
    img_04 = cv2.drawKeypoints(img_02,keypoint_02,img_02,color=(255,0,255)) #画出特征点,并显示为红色圆圈
    hmerge_change = np.hstack((img_03, img_04)) #水平拼接
    img_change = cv2.cvtColor(hmerge_change, cv2.COLOR_BGR2RGB) 
    
    fig, ax1 = plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_change)
    ax1.set_title("Image_Keypoints")
    plt.savefig('img_Keypoints.png')
    
    
    
    # BFmatcher(Brute-Force Matching)暴力匹配   暴力方法找到点集1中每个descriptor在点集2中距离最近的descriptor;找寻到的距离最小就认为匹配
    
    #应用BFMatch暴力方法找到点集1中每个descriptor在点集2中距离最近的descriptor;找寻到的距离最小就认为匹配er.knnMatch( )函数来进行核心的匹配,knnMatch(k-nearest neighbor classification)k近邻分类算法。
    # 进行特征检测,得到2张图片的特征点和描述子
    
    img_01 = cv2.imread(imgname_01)
    img_02 = cv2.imread(imgname_02)
    keypoint_01, descriptor_01 = sift.detectAndCompute(img_01, None)
    keypoint_02, descriptor_02 = sift.detectAndCompute(img_02, None)
    bf = cv2.BFMatcher()
    
    # k = 2 返回点集1中每个描述点在点集2中 距离最近的2个匹配点,使用matches变量存储
    
    matches = bf.knnMatch(descriptor_01, descriptor_02, k = 2)
    # 调整ratio, ratio test: 阈值
    ratio = 0.5
    good = []
    
    #我的理解:比较 m n到点集1描述子的欧氏距离 
    for m,n in matches:
        if m.distance < ratio * n.distance:
            good.append([m])
    
    img5 = cv2.drawMatchesKnn(img_01, keypoint_01, img_02, keypoint_02, good, None, flags=2)
    
    img_sift = cv2.cvtColor(img5, cv2.COLOR_BGR2RGB) #灰度处理图像
    
    plt.rcParams['figure.figsize'] = (20.0, 20.0)
    plt.imshow(img_sift)
    plt.savefig('img_SIFT.png')
    
    cv2.destroyAllWindows()
    
    
    
    

    参考大佬博客资料:
    https://blog.csdn.net/abcjennifer/article/details/7639488
    https://blog.csdn.net/zddblog/article/details/7521424
    https://blog.csdn.net/sss_369/article/details/84674639
    https://blog.csdn.net/touch_dream/article/details/62237018
    https://blog.csdn.net/silence2015/article/details/77101295
    https://blog.csdn.net/abcjennifer/article/details/7639681
    https://www.cnblogs.com/herenzhiming/articles/5276106.html

    二、SURF

        加速稳健特征(Speeded Up Robust Features),是一种稳健的局部特征点检测和描述算法。SURF的出现很大程度是对SIFT算法的改进,提升了算法的执行效率,SIFT缺点是实时性不高,并且对于边缘光滑目标的特征点提取能力较弱,SURF算法在实时计算机视觉系统中应用提供了可能。
        Surf改进了特征的提取和描述方式,用一种更为高效的方式完成特征的提取和描述,具体实现流程与SIFT相似,为构建Hessian(黑塞矩阵),构建尺度空间,检测特征点,确定特征点方向,生成特征点描述子。

    (1)构建Hessian(黑塞矩阵)

        构建Hessian矩阵的目的是为了生成图像稳定的边缘点,构建Hessian矩阵的过程对应于Sift算法中的高斯卷积过程。黑塞矩阵(Hessian Matrix)是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率。
    对一个图像f(x,y),其Hessian矩阵如下:
    H ( f ( x , y ) ) = [ ∂ 2 f ∂ x 2 ∂ 2 f ∂ x ∂ y ∂ 2 f ∂ x ∂ y ∂ 2 f ∂ y 2 ] (公式5) H(f(x,y))=\begin{bmatrix}\frac{\partial^2f }{\partial x^2} && \frac{\partial^2f}{\partial x \partial y} \\\\ \frac{\partial^2f}{\partial x \partial y} && \frac{\partial^2f}{\partial y^2} \end{bmatrix} \tag{公式5} H(f(x,y))=x22fxy2fxy2fy22f(5)
        在构造Hessian矩阵前需要对图像进行高斯滤波,经过滤波后的Hessian矩阵表述为: H ( x , σ ) = [ L x x ( x , σ ) L x y ( x , σ ) L x y ( x , σ ) L y y ( x , σ ) ] (公式6) H(x,\sigma)=\begin{bmatrix} L_{xx}(x,\sigma) && L_{xy}{(x,\sigma)} \\\\ L_{xy}(x,\sigma) &&L_{yy}(x,\sigma) \end{bmatrix} \tag{公式6} H(x,σ)=Lxx(x,σ)Lxy(x,σ)Lxy(x,σ)Lyy(x,σ)(6)
    所不同的是,为了提高运算速度,Surf使用了盒式滤波器来近似替代高斯滤波器。

    (2)构建尺度空间

        类比于sift算法的高斯金字塔构造过程,surf算法没有了降采样的过程,SURF算法处理速度有所提高。对于SURF算法,图像的大小总是不变的,SURF采用不断增大盒子滤波模板的尺寸的间接方法。,尺度σ也是在改变。 SURF中采用9X9尺寸的滤波器作为起始滤波器,之后的滤波器尺寸可由以下公式计算得出: F i l t e r S i z e = 3 × ( 2 o c t a v e × i n t e r v a l + 1 ) Filter Size = 3 \times (2^{octave} \times interval + 1) FilterSize=3×(2octave×interval+1),SIFT与SURF在构建高斯金字塔中的差异可以由图1直观的显示。

    图2.1 两种算法在构建高斯金字塔的差异

       图2.1中a为高斯模板保持不变,图像大小改变的情况,适用于sift算法,图b是高斯模板改变,图像大小保持不变的情况,适用于surf算法。一幅灰度图像经过尺度空间中不同尺寸盒子滤波器的滤波处理,可以生成多幅Hessian行列式图像,从而构成了图像金字塔。

    图2.2 一幅Hessian行列式图像的产生过程

    (3)检测特征点

        SURF 中特征点的定位和 SIFT 算法基本相似,在每一组中选取相邻的三层Hessian行列式图像,对于中间层的每一个Hessian行列式值都可以做为待比较的点,在空间中选取该点周围的26个点进行比较大小,若该点大于其他26个点,则该点为特征点。再设定Hessian行列式的阀值,低于Hessian行列式阀值的点不能作为最终的特征点。滤除一些不稳定或者定位错误的关键点,筛选出最终的稳定的特征点。

    图2.3 选取特征点

    (4)计算特征点方向

        在SURF算法中,主方向是对以特征点为中心的6s(S为特征点所在的尺度值)为半径的圆形区域内的Haar小波响应做统计运算得到的。在这个圆形领域内做一个60度的扇形区域,统计这个扇形区域内的haar小波特征总和,然后转动扇形区域,再统计小波特征总和。小波特征总和最大的方向为主方向。

    图2.4 特征点方向

    (5)生成特征点描述子

        首先在特征点周围取一个正方形框,框的边长为20s(s是所检测到该特征点所在的尺度)。在特征点周围取一个44的矩形区域块,所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向(都相对于主方向)的haar小波特征,该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向。所以一共有44*4=64维向量作为Surf特征的描述子,比Sift特征的描述子减少了一半。

    图2.5 描述子维度确定

    (6)特征点匹配

    在这里插入图片描述

        SURF算法特征点匹配和SIFT算法大致相似,这里就不在叙述。

    (7)代码实现

    
    %matplotlib inline
    
    import numpy as np
    import cv2
    from matplotlib import pyplot as plt
    imgname_01 = '01.jpg'
    imgname_02 = '02.jpg'
    imgname_03 = 'test_keypoint.jpg'
    
    # 设定阈值,阈值越大,能够识别的特征也就越少
    #surf = cv2.xfeatures2d.SURF_create(1000)
    surf = cv2.xfeatures2d.SURF_create()
    
    #先获取img_03的关键点,单独检测更加的直观。
    img_03 = cv2.imread(imgname_03)
    keypoint_03, descriptor_03 = surf.detectAndCompute(img_03,None)
    img_keypoint = cv2.drawKeypoints(img_03,keypoint_03,img_03,color=(0,255,0))
    
    img_kp = cv2.cvtColor(img_keypoint, cv2.COLOR_BGR2RGB) 
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_kp)
    ax1.set_title("Image_Keypoints")
    plt.savefig('img_Keypoints.png')
    
    #test
    print(type(keypoint_01))
    print(len(str(keypoint_01)))
    print(type(descriptor_01))
    #64维的描述子
    print(descriptor_01.shape)
    
    #获取两张相似的图片img_01 与 img_02的
    
    img_01 = cv2.imread(imgname_01)
    keypoint_01, descriptor_01 = surf.detectAndCompute(img_01,None)
    img_02 = cv2.imread(imgname_02)
    keypoint_02, descriptor_02 = surf.detectAndCompute(img_02,None)
    img_03 = cv2.drawKeypoints(img_01, keypoint_01, img_01, color=(255, 255, 0))
    img_04 = cv2.drawKeypoints(img_02, keypoint_02, img_02, color=(255, 255, 0))
    
    img_original = np.hstack((img_03, img_04)) #水平拼接
    img_original = cv2.cvtColor(img_original, cv2.COLOR_BGR2RGB) 
    
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_original)
    ax1.set_title("img_original")
    plt.savefig('img_original.png')
    
    '''
    FLANN(Fast_Library_for_Approximate_Nearest_Neighbors)快速最近邻搜索包,它是一个对大数据集和高维特征进行最近邻搜索的算法的集合,
    而且这些算法都已经被优化过了。在面对大数据集时它的效果要好于 BFMatcher。
    
    使用FLANN匹配需要传入两个字典参数:
    第一个参数是IndexParams,对于SIFT和SURF,可以传入参数index_params=dict(algorithm=FLANN_INDEX_KDTREE, trees=5)。
    对于ORB,可以传入参数index_params=dict(algorithm=FLANN_INDEX_LSH, table_number=6, key_size=12,
    第二个参数是SearchParams,可以传入参数search_params=dict(checks=100),它来指定递归遍历的次数,值越高结果越准确,但是消耗的时间也越多。
    '''
    img_01 = cv2.imread(imgname_01)
    img_02 = cv2.imread(imgname_02)
    
    FLANN_INDEX_KDTREE = 0
    index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
    search_params = dict(checks = 50)
    flann = cv2.FlannBasedMatcher(index_params,search_params)
    
    
    matches = flann.knnMatch(descriptor_01, descriptor_02, k = 2)
    ratio = 0.6
    
    good = []
    for m,n in matches:
        if m.distance < 0.6 * n.distance:
            good.append([m])
    img_04 = cv2.drawMatchesKnn(img_01, keypoint_01, img_02 ,keypoint_02, good, None, flags=2)
    img_SURF = cv2.cvtColor(img_04, cv2.COLOR_BGR2RGB) 
    
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_SURF)
    ax1.set_title("img_SURF")
    plt.savefig('img_SURF.png')
    
    cv2.destroyAllWindows()
    

    参考大佬博客资料:
    https://www.cnblogs.com/gfgwxw/p/9415218.html
    https://blog.csdn.net/jiaoyangwm/article/details/79991915
    https://blog.csdn.net/dcrmg/article/details/52601010
    https://blog.csdn.net/lien0906/article/details/79494837

    三、ORB

    1.ORB简介

        ORB(Oriented FAST and Rotated BRIEF)是一种快速特征点提取和描述的算法。ORB算法特征检测是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化。具体的步骤大致分为利用改进FAST算法的oFAST算法提取特征点,并确定特征点方向;然后利用BRIEF算法改进的rBRIEF算法生成特征描述子,最后进行特征点匹配。

    2.ORB步骤

    (1)利用oFAST算法提取特征点

        FAST算法是一种非常快的提取特征点的方法,FAST核心思想就是找出那些特殊的点,即拿一个点跟它周围的点比较,如果它和其中大部分的点都不一样就可以认为它是一个特征点。但是对于这里来说,有两点不足:

        ①提取到的特征点没有方向;
        ②提取到的特征点不满足尺度变化。
        ORB特征提取是由FAST(Features from Accelerated Segment Test)算法发展来的,针对特征点不满足尺度变化,作者像SIFT算法中那样,建立尺度图像金字塔,通过在不同尺度下的图像中提取特征点以达到满足尺度变化的效果。针对提取到的特征点没有方向的问题,作者采用了Rosin提出的一种称为“intensity centroid”(灰度质心法)的方法确定了特征点的方向,具体的步骤如下:
        ①粗提取,从图像中选取一点P,以P为圆心画一个半径为3pixel的圆。圆周上如果有连续n个像素点的灰度值比P点的灰度值大或者小,则认为P为特征点。
        ②机器学习的决策树算法进一步筛选,使用ID3算法训练一个决策树,将特征点圆周上的16个像素输入决策树中,以此来筛选出最优的FAST特征点。
        ③使用非极大值抑制算法去除临近位置多个特征点的问题。
        ④构建金字塔实现尺度不变性,来实现尺度不变性,不同比例的图像提取特征点总和作为这幅图像的oFAST特征点。
        ⑤用灰度质心法(Intensity Centriod)为每个特征点计算了主方向。灰度质心法是假设某特征点的灰度与该邻域重心之间存在偏移,通过这个特征点到重心的向量,就能算出该特征点的主方向。Rosin将邻域矩(moment)定义为: m = ∑ x , y x p y q I ( x , y ) m = \sum_{x,y}x^py^qI(x,y) m=x,yxpyqI(x,y),然后质心定义为: C = ( m 10 m 00 , m 01 m 00 ) C=(\frac {m_{10}} {m_{00}},\frac {m_{01}} {m_{00}}) C=(m00m10,m00m01)。然后求取向量OC的方向,同时如果把x,y的范围保持在[−r,r]之间(r为该特征点邻域的半径),以特征点为坐标原点,则得到的方向角为 θ = a t a n 2 ( m 10 , m 10 ) \theta = atan2(m_{10},m_{10}) θ=atan2(m10,m10)

    ####(2)利用rBRIEF生成特征描述子
        BRIEF算法的核心思想是在关键点P的周围以一定模式选取N个点对,把这N个点对的比较结果组合起来作为描述子,ORB中使用统计学习的方法来重新选择点对集合,但BRIEF算法有个严重的缺点是特征描述子不具备旋转不变性。

        ORB算法在两个方面对BRIEF算法进行了改进,形成rBRIEF算法,改进的步骤为:①采用积分图像解决BRIEF算法的噪声敏感性。②利用改进的FAST算法求得的特征点主方向,ORB在计算BRIEF描述子时建立的坐标系是以特征点为圆心,以特征点和取点区域的形心的连线为X轴建立2维坐标系,后判别和二进制编码,使得描述子具有旋转不变性。在31x31的窗口中,产生一对随机点后,以随机点为中心,取5x5的子窗口,比较两个子窗口内的像素和的大小进行二进制编码,而非仅仅由两个随机点决定二进制编码。

    (3)特征点匹配

        在ORB特征点的匹配时,与SURF与SIFT算法使用的比较两个特征点之间的欧氏距离不同,ORB采用的是汉明距离,设定一个阈值来判断是否能够匹配成功。公式为: D ( b 1 , b 2 ) = b 1 ⨁ b 2 D(b_1,b_2) = b_1 \bigoplus b_2 D(b1,b2)=b1b2,D的值越小,表明两个特征点的相似度越高,异或运算也进一步加快了ORB的算法速度。

    (4)代码实现

    %matplotlib inline
    import numpy as np
    import cv2
    from matplotlib import pyplot as plt
    imgname_01 = '01.jpg'
    imgname_02 = '02.jpg'
    imgname_03 = 'test_keypoint.jpg'
    #创建一个ORB对象
    orb = cv2.ORB_create()
    #先获取img_03的关键点,单独检测更加的直观。
    img_03 = cv2.imread(imgname_03)
    keypoint_03, descriptor_03 = orb.detectAndCompute(img_03,None)
    img_keypoint = cv2.drawKeypoints(img_03,keypoint_03,img_03,color=(0,255,0))
    
    img_kp = cv2.cvtColor(img_keypoint, cv2.COLOR_BGR2RGB) 
    
    fig,ax1=plt.subplots(1, 1, figsize = (10,10))
    ax1.imshow(img_kp)
    ax1.set_title("Image_Keypoints")
    plt.savefig('img_Keypoints.png')
    
    #test
    print(type(keypoint_03))
    print(len(str(keypoint_03)))
    print(type(descriptor_03))
    #64维的描述子
    print(descriptor_03.shape)
    
    #检测两幅不同角度拍摄的图片的特征点
    img_01 = cv2.imread(imgname_01)
    keypoint_01, descriptor_01 = orb.detectAndCompute(img_01,None)
    img_02 = cv2.imread(imgname_02)
    keypoint_02, descriptor_02 = orb.detectAndCompute(img_02,None)
    img_03 = cv2.drawKeypoints(img_01, keypoint_01, img_01, color=(255, 255, 0))
    img_04 = cv2.drawKeypoints(img_02, keypoint_02, img_02, color=(255, 255, 0))
    
    img_original = np.hstack((img_03, img_04)) #水平拼接
    img_original = cv2.cvtColor(img_original, cv2.COLOR_BGR2RGB) 
    
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_original)
    ax1.set_title("img_original")
    plt.savefig('img_original.png')
    
    
    # BFMatcher解决匹配
    img_01 = cv2.imread(imgname_01)
    img_02 = cv2.imread(imgname_02)
    
    bf = cv2.BFMatcher()
    matches = bf.knnMatch(descriptor_01,descriptor_02, k=2)
    print(type(matches))#<class 'list'>
    
    # 调整ratio
    good = []
    ratio = 0.7
    for m,n in matches:
        if m.distance < ratio * n.distance:
            good.append([m])
    
    img_05 = cv2.drawMatchesKnn(img_01,keypoint_01,img_02,keypoint_02,good,None,flags=2)
    img_ORB = cv2.cvtColor(img_05, cv2.COLOR_BGR2RGB) 
    
    fig,ax1=plt.subplots(1, 1, figsize = (20,20))
    ax1.imshow(img_ORB)
    ax1.set_title("img_ORB")
    plt.savefig('img_ORB.png')
    
    cv2.destroyAllWindows()
    
    

    参考资料:

    https://blog.csdn.net/andylanzhiyong/article/details/84729196
    https://www.cnblogs.com/zjiaxing/p/5616653.html
    https://blog.csdn.net/qq_20791919/article/details/80176643
    https://blog.csdn.net/monk1992/article/details/93469078
    https://blog.csdn.net/weixin_30567471/article/details/99190350
    https://blog.csdn.net/zhangziju/article/details/79754652

    展开全文
  • 基于改进SURF算法的机器人识别匹配方法.pdf
  • 个人学习笔记,SIFT与SURF算法详解
  • 本文针对传统SURF (Speeded Up Robust Features)算法精度和速度较低的问题, 提出一种优化的图像匹配算法. 在特征点提取阶段引入局部二维熵来刻画特征点的独特性, 通过计算特征点的局部二维熵并设置合适的阈值来剔除...
  • 首先利用SURF 算法提取待拼接图像的特征点,接着提取待拼接图像的边缘,将图像边缘上的特征点保留下来,进行下一步匹配与图像融合.实验结果表明:改进的方法能够获得理想的拼接效果,并且大大地提高了运算速度.
  • 基于改进SURF算法的柔性装夹机器人快速工件匹配方法.pdf
  • 一种基于距离约束的改进SURF算法,李红波,赵永耀,图像特征点匹配算法是增强现实几何一致性技术中的核心算法,目前图像特征点匹配算法耗时较大,准确性较差。提出了一种基于距离约
  • SURF算法的理解

    2020-01-17 22:58:01
    SURF与SIFT算法的理解 1.SURF: Speeded Up Robust Features(SURF,加速稳健特征) 在SIFT算法上改进 2.SIFT:Scale-invariant feature transform(SIFT,尺度不变特征变换) 以上两种算法都是用于...SURF算法步骤: ...
  • SIFT SURF算法的比较

    热门讨论 2010-08-14 10:16:23
    经典图像匹配算法的比较,通过比较大家可以很容易清楚各自的优缺点
  • SURF算法学习心得

    千次阅读 2013-04-05 12:54:25
    本文主要内容来自下面两篇博客:http://www.yongblog.com/archives/123.htmlhttp://www.cnblogs.com/blue-lg/archive/2012/07/17/2385755.htmlSURF算法是对SIFT...参考资料:Surf算法论文及实现源码。SURF (Speeded Up

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,946
精华内容 1,178
关键字:

surf算法改进