精华内容
下载资源
问答
  • Sift算法的优点是特征稳定,对旋转、尺度变换、亮度保持不变性,对视角变换、噪声也有一定程度的稳定性;缺点是实时性不高,并且对于边缘光滑目标的特征提取能力较弱。 Surf(Speeded Up Robust Features)改进了...

    1.原理:

    Sift算法的优点是特征稳定,对旋转、尺度变换、亮度保持不变性,对视角变换、噪声也有一定程度的稳定性;缺点是实时性不高,并且对于边缘光滑目标的特征点提取能力较弱。
    Surf(Speeded Up Robust Features)改进了特征的提取和描述方式,用一种更为高效的方式完成特征的提取和描述。

    2.Surf实现流程

    2.1 构建Hessian(黑塞矩阵),生成所有的兴趣点,用于特征的提取

    黑塞矩阵(Hessian Matrix)是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率。由德国数学家Ludwin Otto Hessian于19世纪提出。
    surf构造的金字塔图像与sift有很大不同,Sift采用的是DOG图像,而surf采用的是Hessian矩阵行列式近似值图像。
    Hessian矩阵是Surf算法的核心,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点),为下文的特征提取做好基础。
    每一个像素点都可以求出一个Hessian矩阵。
    在这里插入图片描述
    Hessian矩阵的判别式为:
    在这里插入图片描述
    当Hessian矩阵的判别式取得局部极大值时,判定当前点是比周围邻域内其他点更亮或更暗的点,由此来定位关键点的位置。
    在SURF算法中,图像像素l(x,y)即为函数值f(x,y)。但是由于我们的特征点需要具备尺度无关性,所以在进行Hessian矩阵构造前,需要对其进行高斯滤波,选用二阶标准高斯函数作为滤波器。
    在这里插入图片描述
    通过特定核间的卷积计算二阶偏导数。通过特定核间的卷积计算二阶偏导数,这样便能计算出H矩阵的三个矩阵元素L_xx, L_xy, L_yy从而计算出H矩阵:
    在这里插入图片描述
    由于高斯核是服从正态分布的,从中心点往外,系数越来越低,为了提高运算速度,Surf使用了盒式滤波器来近似替代高斯滤波器,提高运算速度。
    盒式滤波器(Boxfilter)对图像的滤波转化成计算图像上不同区域间像素和的加减运算问题,只需要简单几次查找积分图就可以完成。
    每个像素的Hessian矩阵行列式的近似值:
    在这里插入图片描述
    在Dxy上乘了一个加权系数0.9,目的是为了平衡因使用盒式滤波器近似所带来的误差。

    2.2构建尺度空间

    同Sift一样,Surf的尺度空间也是由O组L层组成,不同的是,Sift中下一组图像的尺寸是上一组的一半,同一组间图像尺寸一样,但是所使用的高斯模糊系数逐渐增大;而在Surf中,不同组间图像的尺寸都是一致的,但不同组间使用的盒式滤波器的模板尺寸逐渐增大,同一组间不同层间使用相同尺寸的滤波器,但是滤波器的模糊系数逐渐增大。
    在这里插入图片描述

    2.3特征点定位

    特征点的定位过程Surf和Sift保持一致,将经过Hessian矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点。
    在这里插入图片描述

    3.4特征点主方向分配

    Sift特征点方向分配是采用在特征点邻域内统计其梯度直方图,而在Surf中,采用的是统计特征点圆形邻域内的harr小波特征。
    在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以一定间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向。
    在这里插入图片描述

    3.5生成特征点描述子

    在Sift中,是取特征点周围44个区域块,统计每小块内8个梯度方向,用着4×4×8=128维向量作为Sift特征的描述子。
    Surf算法中,也是在特征点周围取一个4×4的矩形区域块,但是所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,这里的水平和垂直方向都是相对主方向而言的。该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向。
    在这里插入图片描述
    把这4个值作为每个子块区域的特征向量,所以一共有4×4×4=64维向量作为Surf特征的描述子,比Sift特征的描述子减少了一半。

    2.6 特征点匹配

    与Sift特征点匹配类似,Surf也是通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的匹配度越好。
    不同的是Surf还加入了Hessian矩阵迹的判断,如果两个特征点的矩阵迹正负号相同,代表这两个特征具有相同方向上的对比度变化,如果不同,说明这两个特征点的对比度变化方向是相反的,即使欧氏距离为0,也直接予以排除。

    原文链接

    SURF算法

    参考阅读

    图像特征提取算法:尺度不变特征变换SIFT
    SURF算法详解
    SURF原理与源码解析

    展开全文
  • 针对目前语言识别系统所采用的特征参数没有充分考虑人耳听觉机制,鲁棒性较差的问题,提出一种符合人耳听觉感知特性的鲁棒语言识别参数提取算法。该算法主要从两个方面提高特征参数的鲁棒性:在计算各子带能量时采用...
  • 特征提取算法简单学习笔记

    万次阅读 2018-01-30 14:21:13
    特征提取:将原始特征转换为一组具有明显物理意义(Gabor、几何特征[角点、不变量]、纹理[LBP HOG])或者统计意义或核的特征 特征选择:从特征集合中挑选一组最具统计意义的特征,达到降维 我的理解: 特征提取:...

    update 2021.04.22

    这几年的经验下来,以前以为特征提取的方法时共通的,注意力都在后续算法部分,现在的感受是,不同领域算法反而很多时候时共通的,特征提取差异很大,不能简单的一言以蔽之,这也是当初写完这个简单学习笔记之后感觉帮助不大的原因。

    举例来说,CV方向,特征提取需要图像处理的相关知识,NLP方向是一些文本的计算方式,特征就是用数字描述样本,将算法应用到不同领域时候需要不同领域的先验知识,特征可以用一些常用的方法提取,也可以根据自己的相关知识,自定义特征,行业知识对特征提取来说很重要,最近正在信号处理里崩溃,有一种从头开始的感觉,不同行业算法工程师和算法工程师之间的知识储备很可能千差万别。

    =============================================

    2018.01.30

    特征提取:利用已有的特征计算出一个抽象程度更高的特征集,也指计算得到某个特征的算法

    特征选择:尝试从初始的特征集T中选择对文本描述效果最好的特征子集T’(重点是“选择”)

     

     

     

    我的理解:

    特征提取:需要进行特征变换,改变向量空间

    特征选择:选择,保留原始特征意义

    --------------------------------------------------------------------------------------

    复制一段:

     

    线性特征提取
     

    PCA

     
    LDA
     
    ICA -独立成分分析
    思想:ICA是将原始数据降维并提取出相互独立的属性;寻找一个线性变换z=Wx,使得z的各个分量间的独立性最大,I(z)=Eln(p(z)/p(z1)..p(zd))
     
     
    注:PCA&ICA
    ICA是找出构成信号的相互独立部分(不需要正交),对应高阶统计量分析。ICA理论认为用来观测的混合数据阵X是由独立元S经过A线性加权获得。ICA理论的目标就是通过X求得一个分离矩阵W,使得W作用在X上所获得的信号Y是独立源S的最优逼近,该关系可以通过下式表示:
    Y = WX = WAS , A = inv(W)
    ICA相比与PCA更能刻画变量的随机统计特性,且能抑制高斯噪声。

     

     

     

     

    非线性特征提取
     
    Kernel PCA  
     
    Kernel FDA  
     
    Manifold Learning 流形学习
     

    以上来源 http://blog.csdn.net/lanbing510/article/details/40488787

    并不完全是我想要的,好像哪里不太对。。

    -----------------------------------------------------------------------------------------------

    找篇论文:(CV的一篇)

    几种特征提取算法性能的评估(魏英姿,刘源,不知道是哪年)http://www.docin.com/p-1230784467.html

    1. 特征提取算法:

    1.1 FAST(Features from Accelerated Segment Test)(从加快的segment测试中得到feature。。=.=)

    1.2 SIFT(Scale Invariant Feature Transfrom)(比例不变特征转换。。=.=)(描述见后续。。图片特征提取部分)

    1.3 PCA-SIFT

    1.4 SURF( the Speed-up Robust Feature Detector)(加速鲁棒特征检测er。。=.=)(描述见后续。。图片特征提取部分)

    1.5 ORB(Oriented Brief)(有方向的摘要。。=.=)

    2. 随机抽样一致性算法(Random  Sample Consensus, RANSAC)

    ---------------------------------------------------------------------------------------------

    网上复制一截,作为上述补充。。 来源:http://blog.csdn.net/zhangzhengyi03539/article/details/49945011

     

    MDS(Muli-demision scaling) 
    MDS也是一种无监督的特征映射方法。MDS建立一个原始高维输入空间样本到低维特征空间样本的一一映射,建立的原则是在输入空间距离近的样本在低维特征空间的距离也要近。

    Isomap 
    Isomap基于MDS。Isomap通过计算最段路径利用MDS进行降维。在利用Isomap的时候可以有两种方法确定原始输入空间样本之间知否有路径:一是设置阀值,两样本之间距离小于阀值的就认为是有边;另一种是设置邻居节点个数k,认为每个节点都与与它最近的k个样本之间存在边。

    LLE 
    LLE是局部化模型,通过对节点的临域建立OLS回归模型,然后根据OLS的权重构建特征空间样本。

    SVD 
    -----------------------------------------------------------------------------------------

    网上又找一段。。来源:http://blog.csdn.net/rosenor1/article/details/52372788

     

    先说一句题外的:

    特征是什么样的。。

     

    这篇文章里面说到了这句话:

    分类变量通常用独热编码(One-of-K or One-Hot Encoding),通过二进制数来表示每个解释变量的特征。

    想起来以前有一次面试的时候说到human detection,面试的人问我HoG特征是什么样的,当时觉得有一种无法言说的感觉,面试官后来解释了一下,觉得他说的也跟没说没差。。然后找到了这篇HoG特征简单梳理http://blog.csdn.net/coming_is_winter/article/details/72850511

     

    复制正经的:

     

    文字特征提取--词库模型(Bag-of-words model)

     

    一批文档的集合称为文集(corpus)

    文件的单词构成词汇表(vocabulary)

    构成特征向量的元素数量称为维度(dimension)

    一个词典(dictionary)来表示词汇表与特征向量索引的对应关系

     

    将文档词块化(tokenize)。文档词块化是把句子分割成词块(token)或有意义的字母序列的过程。词块大多是单词,但是他们也可能是一些短语,如标点符号和词缀。

      词汇表里面有10个单词,但a不在词汇表里面,是因为a的长度不符合CountVectorizer类的要求。

      对比文档的特征向量,会发现前两个文档相比第三个文档更相似。如果用欧氏距离(Euclidean distance)计算它们的特征向量会比其与第三个文档距离更接近。两向量的欧氏距离就是两个向量欧氏范数(Euclidean norm)或L2范数差的绝对值:

      

      向量的欧氏范数是其元素平方和的平方根:

      

      有许多零元素的高维特征向量成为稀疏向量(sparse vectors)。

      第一个问题就是高维向量需要占用更大内存。NumPy提供了一些数据类型只显示稀疏向量的非零元素,可以有效处理这个问题。

      第二个问题就是著名的维度灾难(curse of dimensionality,Hughes effect),维度越多就要求更大的训练集数据保证模型能够充分学习。如果训练样本不够,那么算法就可以拟合过度导致归纳失败。下面,我们介绍一些降维的方法

      停用词过滤

      特征向量降维的一个基本方法是单词全部转换成小写。这是因为单词的大小写一般不会影响意思。词库模型并不在乎单词的位置和语法。

      另一种方法是去掉文集常用词。这里词称为停用词(Stop-word),像a,an,the等。

      词根还原与词形还原

      停用词去掉之后,可能还会剩下许多词,还有一种常用的方法就是词根还原(stemming )与词形还原(lemmatization)。

      词根还原与词形还原就是为了将单词从不同的时态、派生形式还原。

      词形还原:生成单词的形态学的词根

    就是用来处理可以表现单词意思的词元(lemma)或形态学的词根(morphological root)的过程。词元是单词在词典中查询该词的基本形式。

    通常需要词法资料的支持,比如WordNet和单词词类(part of speech)。

         词根还原:把附加的词缀都去掉,构成一个词块,可能不是一个正常的单词。

    通常需要用规则产生词干(stem)并操作词块,不需要词法资源,也不在乎单词的意思。

      带TF-IDF权重的扩展词库。。作为统计学上的方法对于短文本的应用不是太好

      一个文档中某个词多次出现,相比只出现过一次的单词更能体现反映文档的意思。

    这个统计量是可以提前算好的,使用时直接查表即可,不会存在效率问题。

      这种单词频率构成的特征向量为文档的意思提供了更多的信息,但是在对比不同的文档时,需要考虑文档的长度。

      很多单词可能在两个文档的频率一样,但是两个文档的长度差别很大,一个文档比另一个文档长很多倍。scikit-learn的TfdfTransformer类可以解决这个问题,通过对词频(term frequency)特征向量归一化来实现不同文档向量的可比性。默认情况下,TfdfTransformer类用L2范数对特征向量归一化:

      

      f(t,d)是第d个文档(document)t个单词(term)的频率,∥x∥是频率向量的L2范数。

           对数词频调整方法(logarithmically scaled term frequencies),把词频调整到一个更小的范围

           TfdfTransformer类计算对数词频调整时,需要将参数sublinear_tf设置为True。

           词频放大法(augmented term frequencies),适用于消除较长文档的差异

      

      maxf(w,d):w∈d是文档d中的最大词频。scikit-learn没有现成可用的词频放大公式,不过通过CountVectorizer可以轻松实现。

     

      归一化,对数调整词频和词频放大三支方法都消除文档不同大小对词频的影响。

     

    但是,另一个问题仍然存在,那就是特征向量里高频词的权重更大,即使这些词在文集内其他文档里面也经常出现。这些单词并没有突出代表单个文档的意思。逆向文件频率(inverse document frequency,IDF)就是用来度量文集中单词频率的。

      

      其中,N是文集中文档数量,d∈D:t∈d表示包含单词tt的文档数量。单词的TF-IDF值就是其频率与逆向文件频率的乘积。

      通过TF-IDF加权之后,我们会发现在文集中较常见的词被调整了。

      通过哈希技巧实现特征向量

      前面我们是用包含文集所有词块的词典来完成文档词块与特征向量的映射的。这么做有两个缺点。首先是文集需要被调用两次。第一次是创建词典,第二次是创建文档的特征向量。另外,词典必须储存在内存里,如果文集特别大就会很耗内存。通过哈希表可以有效的解决这些问题。可以将词块用哈希函数来确定它在特征向量的索引位置,可以不创建词典,这称为哈希技巧(hashing trick)。scikit-learn提供了HashingVectorizer来实现这个技巧:

      fromsklearn.feature_extraction.textimportHashingVectorizercorpus=['the','ate','bacon','cat']vectorizer=HashingVectorizer(n_features=6)print(vectorizer.transform(corpus).todense())

      [[-1. 0. 0. 0. 0. 0.] [ 0. 0. 0. 1. 0. 0.] [ 0. 0. 0. 0. -1. 0.] [ 0. 1. 0. 0. 0. 0.]]

      哈希技巧是无固定状态的(stateless),它把任意的数据块映射到固定数目的位置,并且保证相同的输入一定产生相同的输出,不同的输入尽可能产生不同的输出。它可以用并行,线上,流式传输创建特征向量,因为它初始化是不需要文集输入。n_features是一个可选参数,默认值是220220,这里设置成6是为了演示。另外,注意有些单词频率是负数。由于Hash碰撞可能发生,所以HashingVectorizer用有符号哈希函数(signed hash function)。特征值和它的词块的哈希值带同样符号,如果cats出现过两次,被哈希成-3,文档特征向量的第四个元素要减去2。如果dogs出现过两次,被哈希成3,文档特征向量的第四个元素要加上2。

      用带符号哈希函数可以把词块发生哈希碰撞的概率相互抵消掉,信息损失比信息损失的同时出现信息冗余要好。哈希技巧的一个不足是模型的结果更难察看,由于哈希函数不能显示哪个词块映射到特征向量的哪个位置了。

    图片特征提取

     通过像素值提取特征

      数字图像通常是一张光栅图或像素图,将颜色映射到网格坐标里。一张图片可以看成是一个每个元素都是颜色值的矩阵。表示图像基本特征就是将矩阵每行连起来变成一个行向量。光学文字识别(Optical character recognition,OCR)是机器学习的经典问题。

      和TF-IDF特征向量不同,大部分图像都不是稀疏的。这种表示法的缺点不只是特征向量的维度灾难,还有就是某个位置的学习结果在经过对图像的放缩,旋转或变换之后可能就不对了,非常敏感,缺乏稳定性。另外,这种方法对图像的亮度也十分敏感。所以这种方法在处理照片和其他自然景色图像时不怎么有用。现代计算机视觉应用通常手工实现特征提取,或者用深度学习自动化解决无监督问题。

    创建的特征矢量包含了图像的每个像素,既包含了图像特征的有用信息,也包含了一堆噪声。

     对感兴趣的点进行特征提取

    有信息量的属性,称为兴趣点(points of interest),是由丰富的纹理包围,基本可以重建图像。边缘(edges)和角点(corners)是两种常用的兴趣点类型。边是像素快速变化的分界线(boundary),角是两条边的交集。

      当图片的亮度发生统一变化时,这些兴趣点依然存在。

      SIFT和SURF

      尺度不变特征转换(Scale-Invariant Feature Transform,SIFT)是一种特征提取方法,相比前面使用的方法,SIFT对图像的尺寸,旋转,亮度变化更不敏感。每个SIFT特征都是一个描述图片上某个区域边缘和角点的向量。和兴趣点不同,SIFT还可以获取每个兴趣点和它周围点的综合信息。加速稳健特征(Speeded-Up Robust Features,SURF)是另一个抽取图像兴趣点的方法,其特征向量对图像的尺寸,旋转,亮度变化是不变的。SURF的算法可以比SIFT更快,更有效的识别出兴趣点。

      数据标准化

      确保解释变量的数据都是同一量级,均值为0的标准化数据。许多评估方法在处理标准化数据集时可以获得更好的效果。标准化数据均值为0,单位方差(Unit Variance)。均值为0的解释变量是关于原点对称的,特征向量的单位方差表示其特征值全身统一单位,统一量级的数据。解释变量的值可以通过正态分布进行标准化,减去均值后除以标准差。

    -------------------------------------------------------------------------------------------

    查了查,还有一些,梳理在下面:

    CHI开方检验

    TFIDF可以用于任意文本集合,而CHI则需要文本有分类标签的标记才能计算。

     

    textrank

     

    本身是基于pagerank 算法而来的,词作为顶点,可以用有向图也可以无向图,最开始textrank是就是作为关键词抽取和相关权重计算而出生的。最初是作为关键词抽取方法提出来的,后来也有人尝试作为权重计算方法,但需要注意的是TextRank的计算复杂度很高。

    -------------------------------------------------------------------------------------------------------------------------------------------

     

    图像特征提取与特征选择基本方法总结

     

     

     

    http://blog.csdn.net/zx799959906/article/details/39369543

    -------------------------------------------------------------------------------------------------------------------------------------------

    链接:特征工程到底是什么? - 城东的回答

    这个太长了。。暂时没空看了

    ----------------------------------------------------------------------------------------

    and finally

     

    展开全文
  • 根据其便利性和便利性,最适用于图像特征提取和匹配的算法是加速鲁棒特征(SURF)。 尺度不变特征变换(SIFT)算法的增强功​​能提高了算法的有效性,并提高了可能性,同时该算法的应用正在当前的计算机视觉系统...
  • 基于鲁棒高效特征提取和BPNN算法的中文车牌识别方法
  • 首先通过正规化分谐波叠加算法提取基频,然后采用K-means算法对基频特征进行编码加强其稳定性,最后与水印图像异或生成零水印序列。此外,发生恶意窜改时,对比零水印中的基频信息得到不一致的部分,即可确定恶意...
  • 以下图像特征算法是计算机视觉入门必须了解的图像特征提取算法: MPEG-7标准中的视觉描述符 颜色和边缘的方向性描述符CEDD 模糊颜色和纹理直方图FCTH 颜色布局描述符Color ...图像特征提取算法:加速鲁棒特征SURF ...
    展开全文
  • SURF:Speed Up Robust Features是继SIFT算法后有H Bay提出的一特征提取算法,其灵感来自于SIFT,所以该算法的几个步骤和SIFT算法相似,但其速度是SIFT算法的多倍之多(基于hessian的快速计算方法),下面我们就来...

    SURF:Speed Up Robust Features是继SIFT算法后有H Bay提出的一特征点提取算法,其灵感来自于SIFT,所以该算法的几个步骤和SIFT算法相似,但其速度是SIFT算法的多倍之多(基于hessian的快速计算方法),下面我们就来看看该算法实现的过程:(ps:本文纯属个人理解,如有错误望指正)

    1、初始化图像:将图像转变成32位单精度单通道图像

    2、得到图像积分图:积分图是为下面计算fast-hessian做准备

    3、hessian矩阵计算:采用近似计算,加快计算速度

    4、构建尺度空间:保持图片不变,增大高斯核的尺度

    5、找出关键点:利用hessian矩阵发现关键点,同时关键点还需是临近26个像素中最大或最小值

    6、确定描述因子方向:为了保持特征点的旋转不变性,确定描述因子主方向

    7、计算描述因子:利用harr小波变换计算描述因子


    接下来介绍几个主要知识点:

    1、积分图像:


    X代表点(x,y),即输入图像的原点和点X所组成的矩阵内所有像素的和。将图像所有像素点计算即可


    2、hessian matrix

    点X的hessian matrix 可由下式定义:


    其中Lxx为高斯二阶导数和图像在X点的卷积,Lxy、Lyy 类似

    算法提出一种hessian matrix 的近似求解方法:即box filters

    下图为二阶高斯导数的近似图像:


    左边为二阶高斯导数图像,右边为二阶高斯近似图像

    采用近似方法的好处是,hessian matrix的求解速度可以得到很大的提高,然后采用此方法也会造成结果出现一定的误差,因此我们在计算det(H)时加上一个系数w


    w取0.9,具体是由下面式子计算而来:



    3、构建尺度空间

    为了满足尺度不变性,特征点必须在不同的尺度空间下提取。SIFT采用的是高斯图像金字塔。由于使用了box filters 和积分图像,所以没有必要重复的计算采样层,不需要像SIFT算法那样去直接建立金字塔图像,不同尺度的采样层只需计算一次即可,采用不断增大的盒子滤波模板的尺寸的间接方法。通过不同尺寸盒子滤波模板和积分图像求取Hessian矩阵行列式的响应图像,然后,在响应图像上采用3D非最大值抑制,求取各种不同尺度的斑点。




    与SIFT相类似,SURF也将尺度空间划分成若干组(Octaves)。一个组代表了逐步放大的滤波模板对同一个输入图像进行滤波的一系列响应图像。每一组又有若干固定的层组成

    尺度空间被分成5组(five ostavls),每组4层(four intervals),高斯核的尺度空间如下:

     

    // Oct1: 9,  15, 21, 27
    // Oct2: 15, 27, 39, 51
    // Oct3: 27, 51, 75, 99
    // Oct4: 51, 99, 147,195
    // Oct5: 99, 195,291,387


    4、找出关键点

          为了在目标影像上确定SURF特征点,我们使用了3*3*3的模板在3维尺度空间进行非最大化抑制,根据预设的Hessian阈值H,当h大于H,而且比临近的26个点的响应值都大的点才被选为兴趣点。最后进行插值精确。



    5、特征点主方向确定

          为了保证特征矢量具有旋转不变形,需要对每一个特征点分配一个主要方向。需要以特征点为中心,以6ss为特正点的尺度)为半径的圆形区域内,对图像进行Haar小波响应运算。这样做实际就是对图像进行了梯度运算,但是利用积分图像,可以提高计算图像梯度的效率。为了求取主方向值,需要设计一个以方向为中心,张角为PI/3的扇形滑动窗口,以步长为0.2弧度左右,旋转这个滑动窗口,并对窗口内的图像Haar小波的响应值进行累加。 主方向为最大的Haar响应累加值对应的方向 。


    6、描述因子形成

      生成特征点的特征矢量需要计算图像的Haar小波响应。在一个矩形的区域内,以特征点为中心,沿主方向将20s*20s的图像划分成4*4个子块,每个子块利用尺寸2sHaar小波模板进行响应计算,然后对响应值进行统计形成的特征矢量 



    到此,SURF的描述因子就已经形成,我们就可以利用该描述因子去做我们想做的事情了!





    转载于:https://www.cnblogs.com/Black-Small/p/3258467.html

    展开全文
  • 作用:特征提取在“目标识别、图像拼接、运动跟踪、图像检索、自动定位”等研究中起着重要作用; 主要算法: •FAST ,Machine Learning forHigh-speed Corner Detection, 2006 •SIFT,Distinctive ImageFe...
  • 针对现有图像特征匹配算法高复杂度、耗时长等问题,提出一种基于局部特征点的新型特征匹配算法。首先,构建尺度金字塔,在...与传统的SIFT算法相比,该算法在保证特征提取与匹配良好性能的前提下,运行速度要比SIFT算法
  • 一些常用的语音特征提取算法

    万次阅读 2019-10-23 11:37:00
    前言 ...特征提取是通过将语音波形以相对最小的数据速率转换为参数表示形式进行后续处理和分析来实现的。因此,可接受的分类是从优良和优质的特征中衍生出来的。Mel频率倒谱系数(MFCC)、线性预...
  • 针对冠脉分割不准确以及血管曲率变化比较大导致的中心线提取不准确问题,提出了一种基于管状结构特征的冠脉中心线自动提取算法.首先对冠脉进行基于骨架线节点结构特征的冠脉血管中心线粗提取;然后利用冠脉的管状结构...
  • 针对加速鲁棒特征算法用于井下视频拼接时实时性不高的问题,通过降低特征点维度和仅在感兴趣区域提取特征点来改进加速鲁棒特征算法,在此基础上提出了一种井下视频拼接算法。首先,利用改进的加速鲁棒特征算法提取视频...
  • 针对数字水印算法特征区域选取不足以反映图像重要信息,导致鲁棒性减弱的问题,提出一种尺度空间特征区域的强鲁棒性水印算法。通过尺度空间特征点检测提取靠近载体图像重心且互不重叠的特征区域,合成特征区域矩阵...
  • 鲁棒性人脸特征提取

    2012-12-14 22:16:10
    鲁棒人脸特征提取算法做了详细介绍和研究
  • ORB特征,从它的名字中可以看出它是对FAST特征点与BREIF特征描述子的一种结合与改进,这个算法是由Ethan Rublee,Vincent Rabaud,Kurt Konolige以及Gary R.Bradski在...ORB特征是目前最优秀的特征提取与匹配算法之一。
  • 并且在此博客的基础之上,增加了...一、SURF算法的概述 SURF,英文的全称为Speed Up Robust Features,直译为:加速版的具有鲁棒特性的特征算法,是由Bay在2006年首次提出的。该算法对经典的尺度不变特征变换算法(S...
  • 特征提取算法--Sift

    万次阅读 2016-03-14 22:27:19
    SIFT(Scale-invariant feature transform)是一种检测局部特征算法,它在空间尺度中对一副图寻找极值点,并提取出其位置、尺度、旋转不变量等描述子得到特征并进行图像特征点匹配,用来侦测与描述影像中的局部性...
  • 为了解决逆向工程中平移对称提取的问题,提出了一种鲁棒提取算法.首先利用特征线将模型分割成体素的集合,然后计算各个体素的形状分布曲线,通过形状分布曲线匹配的方式获取了几何形状相似的体素,并利用最小包围...
  • 针对目前尺度不变的图像特征提取算法计算量较大,算法较复杂的问题,提出一种简化的SIFT图像特征提取算法。此算法通过改变金字塔尺度空间的结构实现对SIFT特征点提取过程的简化,通过改变特征点描述子的结构实现...
  • OpenCV中最常使用的特征检测和提取算法有: Harris、SIFT、SURF、FAST、BRIEF、ORB等。 引言 计算机视觉中,我们经常要匹配两幅图像。匹配的的方式就是通过比较两幅图像中的公共特征,比如边,角,以及图像块...
  • SIFT(Scale Invariant Feature Transformation)特征提取算法是用于提取对尺度、旋转以及光照等鲁棒的图像局部特征并进行描述的经典算法,广泛应用于图像匹配等领域中,其主要步骤有以下几点: 1. 高斯差分尺度...
  • 人脸识别技术中的Gabor特征提取算法

    千次阅读 2019-11-01 23:33:37
    这篇文章我们将介绍人脸识别中的Gabor特征提取算法,Gabor算法是用在特征提取阶段。我们在这里对比一下语音识别的流程图和人脸识别技术的流程图,以便学习总结。 下图是基于DTW算法的语音识别技术的流程图: 下...
  • 针对移动机器人导航过程中视觉图像处理速度慢以及特征点提取与匹配实时性和准确性差等特点,提出了一种基于SIFT特征提取算法与KD树搜索匹配算法相结合的新方法,通过对候选特征点进行多次模糊处理,使其分布在高斯差...
  • 为了提高图像水印的实用性,提出...该算法通过结合自嵌入加密的特征水印序列和盲提取认证水印序列达到全盲检测。实验结果表明,该算法对抵抗添加噪声、JPEG压缩及高斯低通滤波等常见的图像处理攻击均具有很强的鲁棒性。
  • 算法从Laplacian特征映射出发,在降维过程中,对样本点的邻域范围采用局部PCA 的方法,以识别和剔除包含的噪声点,并在重构低维嵌入坐标的同时保持流形光滑连续的整体性,较好地改善了算法特征提取性能。实验结果表明...
  • 基于凸几何和K-medoids的鲁棒端元提取算法 抽象的 光谱混合分析(SMA)是一种有效的方法,可找到称为末端成员的成分的独特光谱特征并近似其存在比例(丰度分数)。 在SMA的文献中,通过不同的方法来完成从高光谱图像...
  • 特征检测】BRISK特征提取算法

    万次阅读 多人点赞 2015-07-24 22:59:21
    BRISK特征提取算法,具有较好的旋转不变性、尺度不变性,较好的鲁棒性。在图像配准应用中,对有较大模糊的图像时表现最为出色。
  • 线特征的LSD提取算法

    千次阅读 2020-11-08 22:58:02
    大多数图像中都存在直线特征,是视觉感知、描述外部环境的重要特征信息。直线是一种大尺度的特征,在水面环境中具有更为理想的适用性,线特征具有...因此将点、线特征进行结合使用,可以有效的提高系统的精度和鲁棒性。
  • 摘 要:为解决复杂点云数据的曲线骨骼提取问题,提出了一种鲁棒的点云曲线骨骼提取算法。该方法首先通过区 域分割将点云模型分成多个弱凸面集,减少噪声点对骨骼提取的影响,然后在每个弱凸面集中根据对称点信息提取...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 23,711
精华内容 9,484
关键字:

鲁棒特征提取算法