2016-06-23 15:10:31 wenhao_ir 阅读数 8469

边缘检测实际上就是找出物体的轮廓,很明显,在物体的轮廓处灰度值变化肯定比背景和物体连续处的灰度值变化大,我们主要就依据这个进行边缘检测。边缘检测的方法也很多,本篇博文咱们利用图像在水平和垂直方向上的差分运算进行图像的边缘检测!原理很简单,所以代码很简单,关键是明白轮廓处灰度差值大,而非轮郭处灰度值差值很小

更多内容参见博文https://blog.csdn.net/lehuoziyuan/article/details/84136050

 

 

2015-12-02 21:26:40 u013360881 阅读数 9978

1、滤波(平滑、降噪)

2、增强

3、边缘锐化

4、纹理分析(去骨架、连通性)

5、图像分割(灰度、颜色、频谱特征、纹理特征、空间特征)

6、变换(空域和频域、几何变换、色度变换)

7、几何形态分析(Blob分析) (形状、大小、长度、面积、边缘、圆形度位置、方向、数量、连通性等)

Blob分析是对图像中相同像素的连通域进行分析。该连通域称为Blob。

Blob分析可为机器视觉应用提供图像中的斑点的数量、位置、形状和方向,还可提供相关斑点间的拓扑结构。应用:二维目标图像、高对比度图像、存在/缺席检测、数值范围和旋转不变性需求。

8、匹配(模板匹配、搜索匹配)

9、关于特征识别:字符识别(OCR)、二维码识别(QR code)、人脸识别(LBP)、车牌识别、虹膜识别、语音识别(高斯混合模型和隐马尔科夫模型)、行人检测(HOG)和物体识别(SIFT);

10、色彩分析(色度、色密度、光谱、自动白平衡)

11、立体测量

2019-10-12 09:26:22 weixin_44356700 阅读数 84

%% 学习目标:一个图像处理的经典综合案例
clear;clc;close all
%% 读取图像
I=imread(‘1.jpg’);
try
I=rgb2gray(I); %如果是RGB图像,则转化为灰度图
end

%% 添加噪声
I=imnoise(I,‘salt & pepper’,0.04); % 叠加密度为0.04的椒盐噪声
figure
imshow(I)
title(‘原图’)

%% 图像去噪
I=medfilt2(I,[2 4]); %采用二维中值滤波函数对图像滤波
figure
imshow(I)
title(‘去噪之后的图像’)

%% 图像锐化
[M,N]=size(I); % 计算图像尺寸
f=double(I); % 数据类型转换,MATLAB不支持图像的无符号整型的计算
g=fft2(f); % 二维傅立叶变换,得到频域信息
g=fftshift(g); % 0频率移到(M/2,N/2)处

n=2; % 二阶巴特沃斯滤波器
D0=3; % 巴特沃斯滤波器的D0,D0越大,保留的高频信号就越少(对于不同的图片,可以自行调节,以便得到好的效果)
for i=1:M
for j=1:N
D=sqrt((i-M/2)2+(j-N/2)2); %计算离0频率(M/2,N/2)的距离
h=1/(1+(D0/D)^(2n)); %计算传递函数的值
output(i,j)=h
g(i,j); %高通滤波之后(i,j)处的值
end
end
result=ifftshift(output); %与g=fftshift(g)对应,还原回去
I=ifft2(result); %傅里叶反变换
I=uint8(real(I)); %得到滤波之后的图像(锐化之后的图像)
figure
imshow(I) %滤波后图像显示
title(‘锐化之后的图像’)

%% 直方图均衡化处理
I=histeq(I); %得到直方图均衡化之后的图像
figure
imshow(I)
title(‘直方图均衡之后的图像’)

%% 边缘检测
I1=edge(I,‘prewitt’);
……
……
……
(省略部分代码,完整代码可以下载)
……
……
……
title(‘prewitt边缘检测之后的图像’)

figure
imshow(I2)
title(‘roberts边缘检测之后的图像’)

figure
imshow(I3)
title(‘sobel边缘检测之后的图像’)
%%
……
……
……
(省略部分代码,完整代码可以下载)
……
……
……
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
……
……
……
(省略部分代码,完整代码可以下载)
……
……
……
(完整代码及资料下载地址) 8 matlab图像去噪 滤波 锐化 边缘检测案例.zip-CSDN下载 https://download.csdn.net/download/weixin_44356700/11852069

新上线了一门视频课程——二十八课时精通matlab图像技术-在线视频教程-CSDN学院 https://edu.csdn.net/course/detail/25004

2015-10-23 19:15:21 lishanlu136 阅读数 6826

学习图像处理,必须首先得理解图像的特征提取,我在这里把图像的特征暂且分为如下五类:面特征、线特征、局部区域特征、点特征和不变点特征。其中,面特征对应图像多分辨率金字塔和图像的矩特征,线特征对应图像的边缘检测,局部区域特征对应图像的斑点特征检测,点特征对应图像的角点检测,不变点特征对应图像的尺度不变特征的提取。下面我一一简单说明一下这些特征。

一、图像金字塔

在数字图像处理领域,多分辨率金字塔化是图像多尺度表示的主要形式。图像金字塔化一般包括两个步骤:图像经过一个低通滤波器进行平滑;然后对这个平滑图像进行抽样,抽样比例一般在水平和垂直方向都是为1/2,从而得到一系列尺寸缩小、分辨率降低的图像。将得到的依次缩小的图像按顺序排列,看上去就像是金字塔,这就是“图像金字塔”的由来。

图像的高斯金字塔:设原图像为G0,以G0作为高斯金字塔的第0层(底层),对原始输入图像进行高斯低通滤波和隔行隔列的降采样,得到高斯金字塔的第1层;再对第1层图像低通滤波和降采样,得到高斯金字塔的第2层;重复以上过程,就可以构成高斯金字塔。可见高斯金字塔的当前层图像是对其前一层图像先进行高斯低通滤波,然后进行隔行隔列的降采样而生成的。当前层图像的大小依次为前一层图像大小的1/4。

图像的拉普拉斯金字塔:它的每一层图像是高斯金字塔本层图像与其高一级的图像(由本层图像下采样得到)经内插放大后图像的差,此过程相当于带通滤波,因此,拉普拉斯金字塔又称为带通金字塔。

MATLAB图像处理工具箱提供了impyramid()函数,用于构造图像的金字塔,其调用格式如下:B=impyramid(A,direction),该函数的功能为:对A进行高斯金字塔变换,direction为'reduce'和'expand',分别对应分解和扩张。

二、图像的矩特征

图像的矩特征是用于可以代表图像的图像描述量,不变矩(Invariant Moments,IMg)是一种高度浓缩的图像特征,具有平移、灰度、尺度、旋转不变性,因此矩和矩函数可被用于图像的模式识别、图像分类、目标识别和场景分析中。

HU矩 几何矩是由Hu(Visual pattern recognition by moment invariants)在1962年提出的,图像f(x,y)的(p+q)阶几何矩定义为 Mpq =∫∫(x^p)*(y^q)f(x,y)dxdy(p,q = 0,1,……∞)矩在统计学中被用来反映随机变量的分布情况,推广到力学中,它被用作刻画空间物体的质量分布。同样的道理,如果我们将图像的灰度值看作是一个二维或三维的密度分布函数,那么矩方法即可用于图像分析领域并用作图像特征的提取。最常用的,物体的零阶矩表示了图像的“质量”:Moo= ∫∫f(x,y )dxdy 一阶矩(M01,M10)用于确定图像质心( Xc,Yc):Xc = M10/M00;Yc = M01/M00;若将坐标原点移至 Xc和 Yc处,就得到了对于图像位移不变的中心矩。如Upq =∫∫[(x-Xc)^p]*[(y-Yc)^q]f(x,y)dxdy。Hu在文中提出了7个几何矩的不变量,这些不变量满足于图像平移、伸缩和旋转不变。如果定义Zpq=Upq/(U20 + U02)^(p+q+2),Hu 的7种矩为:H1=Z20+Z02;H1=(Z20+Z02)^2+4Z11^2;......

三、图像的边缘检测

图像的边缘是指其周围像素灰度急剧变化的那些像素的集合,它是图像最基本的特征。边缘存在于目标、背景和区域中,所以,它是图像分割最重要的依据。边缘检测的基本思想是先检测图像中的边缘点,再按照某种策略将边缘点连接成轮廓,从而构成分割区域。

1、运用一阶微分算子检测图像边缘

一阶微分边缘检测算子也称为梯度边缘算子,它是利用图像在边缘处的阶跃性,即图像梯度在边缘取得极大值的特性进行边缘检测。梯度是一个矢量,它具有方向和模。梯度的模值大小提供了边缘的强度信息,梯度的方向提供了边缘的趋势信息,因为梯度的方向始终是垂直于边缘的方向。在实际使用中,通常利用有限差分进行梯度近似。x方向的导数近似等于I(x+1,y)-I(x,y),y方向的导数近似等于I(x,y+1)-I(x,y),对于3*3模板中心像元的梯度,其梯度可通过下式计算得到:x方向:Mx=(a2+ca3+a4)-(a0+ca7+a6),y方向:My=(a6+ca5+a4)-(a0+ca1+a2),其中a0至a8是由模板左上角a0顺时针旋转至模板中心a8,参数c为加权系数,表示离中心像元较近。当c等于1时,就可以得到Prewitt边缘检测卷积核,当c=2时,就可以得到Sobel边缘检测卷积核。

MATLAB中也提供了相关的图像边缘检测的函数,其调用格式如下:BW = edge(I,'sobel',thresh,direction),BW = edge(I,'prewitt',thresh,direction),

BW = edge(I,'roberts',thresh),其中,I是输入的灰度图像,thresh是阈值,direction是方向。

2、傅里叶变换与图像梯度的关系

实际上,对图像进行二维傅里叶变换得到的频谱图,就是图像梯度的分布图,当然频谱图上的各点与图像上的各点并不存在一一对应的关系,在傅里叶频谱图上看到的明暗不一的亮点,实际上是图像上某一点与领域点差异的强弱,即梯度的大小,也即该点的频率大小(也可以这样理解,图像中的低频部分指低梯度的点,高频部分指高梯度的点),一般来讲,梯度大则该点的亮度强,否则该点亮度弱。通过观察图像的频谱图,我们首先可以看出图像的能量分布,如果频谱图中的暗的点数多,那么实际图像是比较柔和的(因为各点与领域差异不大,梯度相对较小),反之,如果频谱图中亮的点数较多,那么实际图像一定是尖锐的,边界分明且边界两边像素差异较大。

3、运用二阶微分算子检测图像边缘

二阶微分边缘检测算子是利用图像在边缘处的阶跃性导致图像二阶微分在边缘处出现零值这一特性进行边缘检测的,因此,该方法也被称为过零算子和拉普拉斯算子。如下:

x方向二阶微分算子=I(i,j+1)-2I(i,j)+I(i,j-1),y方向二阶微分算子=I(i+1,j)-2I(i,j)+I(i-1,j)

虽然使用二阶微分算子检测边缘的方法简单,但是它是缺点是对噪声十分敏感,同时,也不能提供边缘的方向信息。为了实现对噪声的抑制,Marr等提出了高斯拉普拉斯(LoG)的方法。即采用高斯函数作为低通滤波器对图像滤波后,再对该图像进行二阶微分运算。也可以转换为先对高斯函数进行二阶微分,然后再将结果对图像进行卷积运算。为减少高斯函数二阶微分的计算量,可以直接用高斯差分算子(Difference of Gaussian,DoG)代替它。

在MATLAB中,也提供了相关函数,其调用格式为:BW = edge(I,'log',thresh)。其中,I是输入的灰度图像,thresh是阈值。

4、基于Canny算子检测图像边缘

Canny边缘检测算子是边缘检测算子中最常用的一种,虽然Canny算子也是一阶微分算子,但它对一阶微分算子进行了扩展:主要是在原一阶微分算子的基础上,增加了非最大值抑制和双阈值两项改进。利用非最大值抑制不仅可以抑制多响应边缘,而且还可以提高边缘的定位精度;利用双阈值可以有效地减少边缘的漏检率。Canny算子进行边缘提取主要分为4步:

1)去噪声,通常使用高斯函数对图像进行平滑滤波。

2)计算梯度值与方向角。

3)非最大值抑制

4)滞后阈值化。

在MATLAB中,也提供了相关函数,其调用格式为:BW = edge(I,'canny',thresh)。其中,I是输入的灰度图像,thresh是阈值。

四、斑点特征检测

斑点通常是指与周围有着颜色和灰度差别的区域,斑点检测(Blob Detection)是数字图像处理研究的重要内容,由于斑点代表的是一个区域,相比于单纯的角点,它的稳定性要好,抗噪声能力要强。可作为局部特征中的一个重要特例,斑点在图像配准和立体视觉中充当着重要的角色。

1、利用高斯拉普拉斯(Laplace of Guassian,LoG)算子检测图像斑点是一种十分常用的方法。

注意:图像与某一个二维函数进行卷积运算,实际就是求取图像与这一函数的相似性。

2、DoH斑点

图像像素点的二阶微分Hessian矩阵的行列式DoH(Determinant of Hessian)的值同样也反映了图像局部的结构信息。它对图像中细长结构的斑点具有良好的抑制作用。

第一步:使用不同的δ生成模板,并对图像进行卷积运算;

第二步:在图像的位置空间和尺度空间搜索DoH响应的峰值。

五、角点检测

在图像中,可从两个不同的方向去定义角点:角点是两个边缘的交点;角点是领域内具有两个方向的特征点。角点所在的领域通常也是图像中稳定的、信息丰富的区域。

1、Harris角点

图像Harris角点的检测算法实现步骤归纳为:计算图像I(x,y)在x和y两个方向的梯度Ix、Iy

计算图像两个方向梯度的乘积Ix*Ix,Ix*Iy,Iy*Iy

使用高斯函数对这三个乘积进行高斯加权,生成矩阵M的元素A,B,C,其中M=[A   B

                                                                                                                                                                                                         B   C]                   

计算每个像元的Harris响应值R,并对小于某一阈值的R置零: R = { R: detM- a(tranceM)*(tranceM)< t}

在3*3或5*5的领域内进行非极大值抑制,局部极大值点即为图像中的角点。

在MATLAB中,可以调用C = cornermetric(I,‘Harris’)来检测图像的Harris角点特征,其中,I为输入的灰度图像矩阵;c为角点量度矩阵,用来探测图像中的角点信息,并与I同尺寸,C的值越大表示图像I中的像素越有可能是一个角点。

六、尺度不变特征提取

1、SIFT特征提取

尺度不变特征变换(Scale Invariant Feature Transform,SIFT)是一种图像特征提取与描述算法。SIFT算法由David.G.Lowe于1999年提出并在2004年进行了完善总结。SIFT算法可以处理两幅图像之间发生平移、旋转、尺度变化、光照变化情况下的特征匹配问题,并能在一定程度上对视角变化、仿射变化也具备较为稳定的特征匹配能力。

基本原理与具体实现步骤:

整个过程主要分为四个步骤。

(1)尺度空间峰值选择(Scale space peak selection), 这一步的目的是在尺度空间中选择选择潜在的满足尺度不变性和旋转不变性的关键点(或者称为兴趣点)。

(2)关键点定位(key point localization): 这一步的目的就是精确定位出特征关键点的位置, 涉及到剔除伪关键点。

(3)方向分配(orientation assignment): 这一步的目的就是基于关键点的局部梯度方向,给每个相应的关键点分配方向(Assign orientation to key points)。

(4)关键点描述(Key Point descriptor): 此步骤的目的就是对于每个关键点, 用一个高维度(high dimensional vector,128 维的向量)的向量去描述每个关键点。

                                                                     
2018-12-04 22:12:24 Dongjiuqing 阅读数 331

方向梯度直方图(Histogram of Oriented Gradient, HOG)

HOG特征是图像处理中物体检测的特征描述子。计算的是图像局部区域的梯度方向直方图来构成特征,因为不同区域的梯度方向是不同的。这些特征结合SVM已经广泛应用于图像识别中。

主要思想:梯度或者边缘方向密度能够图像的轮廓信息,而且梯度主要存在于图像中的边缘部分。

具体的实现方法是:将图像划分成小的连通域,我们称之为细胞单元cell,然后计算细胞单元中各个像素点的梯度方向,构建梯度直方图,最后把这些直方图组合起来就可以构建为一个特征描述器。(所谓特征描述器我个人的理解就是:一种可以区分物体的东西,就是说有了这个特征描述器我便可以知道图中有没有我想找的物体)

这张图是具体的HOG特征提取的实现流程:

1.输入为一张普通的图像,首先进行灰度化。

2.对输入图像进行颜色空间标准化(归一化),目的是调节图像的对比度,降低图像局部的阴影和光照变化带来的影响,同时可以抑制噪声的干扰。

3.计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;求导操作不仅能够捕获轮廓,人影和一些纹理信息,还能进一步弱化光照的影响。

图像中某一点像素的x,y方向的梯度分别为:

 最常用的方法是:首先用[-1,0,1]梯度算子对原图像做卷积运算,得到x方向(水平方向,以向右为正方向)的梯度分量gradscalx,然后用[1,0,-1]T梯度算子对原图像做卷积运算,得到y方向(竖直方向,以向上为正方向)的梯度分量gradscaly。然后再用以上公式计算该像素点的梯度大小和方向。当然也有很多不同的卷积核去对x,y方向求梯度。

4.将图像化成小得cell,这个可以自己设置,比如每个cell都是包含5*5个像素点。

5.统计每个cell中的梯度方向直方图,结果就是每个cell的HOG特征。

我们将图像分成若干个“单元格cell”,例如每个cell为5*5个像素。假设我们采用9个bin的直方图来统计这5*5个像素的梯度信息。也就是将cell的梯度方向360度分成9个方向块,(当然也有人用八个方向)如图所示:例如:如果这个像素的梯度方向是20-40度,直方图第2个bin的计数就加一,这样,对cell内每个像素用梯度方向在直方图中进行加权投影(映射到固定的角度范围),就可以得到这个cell的梯度方向直方图了,就是该cell对应的9维特征向量(因为有9个bin)。方向有了,那么梯度大小就是作为投影的权值的。例如说:这个像素的梯度方向是20-40度,然后它的梯度大小是2(假设啊),那么直方图第2个bin的计数就不是加一了,而是加2(假设啊)。

6.将几个cell联合起来组成一个块(block,比如一个block里包含3*3个cell),统计一个block的HOG特征。图中每个小格子是一个cell,这个3*3的大方格是一个block。由于局部光照的变化以及前景-背景对比度的变化,使得梯度强度的变化范围非常大。这就需要对梯度强度做归一化。归一化能够进一步地对光照、阴影和边缘进行压缩。并且这些区间是互有重叠的,(为什么会有重叠呢?因为他这个block不是在图像上直接划分好的,而是类似于滑动串口一样,每次按照一定步长去滑过去的)这就意味着:每一个单元格的特征会以不同的结果多次出现在最后的特征向量中。我们将归一化之后的块描述符(向量)就称之为HOG描述符。

7.将图像中所有的block的HOG特征串联,便可得到该图像的HOG特征了,这个就是最终的可供分类的特征了。

(我是这么认为的:用人脸检测来举个例子,最开始的图像可能就是单纯的人脸,然后通过对这些人脸提取特征,当拿一张带有背景的人脸图片时,通过提取HOG特征,加上回归,可以找到人脸的位置,并标注出来。或者也可能是用了一种类似于区域提名的方式,先把有可能有人脸的地方圈出来,然后进行回归,确认这个地方到底有没有人脸,最后进行标注。)

总结一下HOG特征的提取过程:首先把灰度图分割为若干个cell,把梯度分为9个方向,对每一个cell做一个梯度方向的统计,然后构建block,把一定数目连通的cell构成一个block,在block去统计梯度方向,然后这个block按照一定步长将图像中所有的位置全都统计好,最后把这些特征融合,就得到了这一幅图的HOG特征。举个例子:拿一幅100*100的图片,每个cell包含5*5个像素点,每个cell的梯度方向有9个方向,然后美3*3个cell构成一个block,那么一个block中就包含了9*9=81个特征。水平和垂直方向都以5个像素为步长,那么一幅图将包含18*18个block,也就是说水平和垂直方向有都有18个扫描窗口,那么100*100的图像上总共有9*9*18*18=26244个特征。

【注】HOG是在图像场中计算的特征,属于spatial(空间)特征

光流方向直方图(Histogramsof Oriented Optical Flow,HOF)

 HOF(Histogramsof Oriented Optical Flow)与HOG类似,是对光流方向进行加权统计,得到光流方向信息直方图。通常用于动作识别中。光流的概念是Gibson在1950年首先提出来的。它是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。一般而言,光流是由于场景中前景目标本身的移动、相机的运动,或者两者的共同运动所产生的。其计算方法可以分为三类:
(1)基于区域或者基于特征的匹配方法;(匹配一定区域或者特征点,然后分析这些特征点在某个方向上移动了多少)

(2)基于频域的方法;(我还不太了解)

(3)基于梯度的方法;(通过计算梯度得到图像的边缘,而运动物体必然有边缘,边缘的运动能够很好的描述物体的运动)

简单来说,光流是空间运动物体在图像上的像素运动的“瞬时速度”。光流的研究是利用图像序列中的像素强度数据的时域变化和相关性来确定各自像素位置的“运动”。研究光流场的目的就是为了从图片序列中近似得到不能直接得到的运动场。

光流法的前提假设:

(1)相邻帧之间的亮度恒定;(我的理解就是同一个物体反射回来的光不会变化很大,比如有闪光灯干扰)

(2)相邻视频帧的取帧时间连续,或者,相邻帧之间物体的运动比较“微小”;(就是说送入的图片必须看起来是连贯的,物体的位移不大)

如图所示,假设第一帧图面为H(x,y),第二帧图片为 I(x,y),那么如何计算其中像素点的运动呢?显然,对于H中的某一个特定点,我们应该在I中的相同位置的周围去寻找像素一致或接近一致的点。因此我们要有上面的两种假设,1,颜色一致,对于灰度图来讲就是亮度一致。2,运动微小,每个像素点都没有产生较大的偏移,否则在对应位置周围就找不到匹配的点了。

计算光流矢量与横轴的夹角,根据角度值将其投影到对应的直方图bin中,并根据该光流的幅值进行加权。

光流法用于目标检测的原理:给图像中的每个像素点赋予一个速度矢量,这样就形成了一个运动矢量场。在某一特定时刻,图像上的点与三维物体上的点一一对应,这种对应关系可以通过投影来计算得到。根据各个像素点的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的。当图像中有运动物体时,目标和背景存在着相对运动。运动物体所形成的速度矢量必然和背景的速度矢量有所不同,如此便可以计算出运动物体的位置。需要提醒的是,利用光流法进行运动物体检测时,计算量较大,无法保证实时性和实用性。

光流法用于目标跟踪的原理:

(1)对一个连续的视频帧序列进行处理;

(2)针对每一个视频序列,利用一定的目标检测方法,检测可能出现的前景目标;

(3)如果某一帧出现了前景目标,找到其具有代表性的关键特征点(可以随机产生,也可以利用角点来做特征点);

(4)对之后的任意两个相邻视频帧而言,寻找上一帧中出现的关键特征点在当前帧中的最佳位置,从而得到前景目标在当前帧中的位置坐标;

(5)如此迭代进行,便可实现目标的跟踪;

补充:

1.以横轴为基准计算夹角能够使HOF特征对运动方向(向左和向右)不敏感。

2.通过归一化直方图实现HOF特征的尺度不变性。

3.HOF直方图通过光流幅值加权得到,因此小的背景噪声对直方图的影响微乎其微。

4.通常直方图bin取30以上识别效果较好。

【注】HOF是在光流图像上得到的特征,算是时间(Temporal)特征。

运动边界直方图( Motion Boundary Histograms,MBH)

对于HOG特征,其统计的是灰度图像梯度的直方图;对于HOF特征,其统计的是光流(包括方向和幅度信息)的直方图。而对于MBH特征,它的处理方法是将x方向和y方向上的光流图像视作两张灰度图像,然后提取这些灰度图像的梯度直方图。即MBH特征是分别在图像的x和y方向光流图像上计算HOG特征。

由上图可以看出,MBH特征的计算效果就是提取了运动物体的边界信息(也因此被称为Motion Boundary Histograms),在行人检测这个应用场景能起到不错的效果。此外,其计算也非常简单方便,易于使用。


【注】MBH是在光流图像的基础上得到的特征,算是时间(Temporal)特征。

 

 

 

 

hog特征提取方法

阅读数 3287

没有更多推荐了,返回首页