2017-12-04 12:06:48 lidawei0124 阅读数 577

学习了图像处理中的5种特征提取方法,这些特征提取方法各有特点,适用场景也不同。

1. 直方图&&haar-like特征提取:

直方图:单个像素灰度分布的一阶统计量。纹理是灰度在空间以一定的形式变换产生的图案,直方图是描述图像中像素灰度级分布的工具,可以用直方图或其统计特征作为图像的纹理特征。

其中最常用的是灰度直方图,英文灰度具有一定的稳定性,对大小、方向都不敏感, 能表现出相当强的鲁棒性。

示例:

Haar-like:

Haar-like的优势在于能更好地描述明暗变化,如:眼睛比脸颊的颜色要深,鼻梁两侧比鼻梁颜色要深等,因此用于检测正面的人脸。

特征值:特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和,反映了图像的灰度变化,但是矩形特征只对简单的图形结构,如边缘、线段较敏感,因此只能描述特定方向(水平、垂直、对角)的结构。

边缘特征,线性特征,中心特征,对角特征等等


A、B、C、D称为特征原型,在图像子窗口中扩展(平移伸缩)得到的特征称为矩形特征,其值称为特征值。

预处理:

积分图:是一个数据结构,可以用于快速计算子区域的像素和。定义为:

表示为在(x,y)位置上,对应的积分图中的像素为其左上角所有像素之和。

适用积分图快速计算某区域的像素和:



个人总结:积分图对图像的预处理极大程度的加快了运算中的计算量,通过一次计算,免去了后面无数次重复的计算量,计算小区域的像素和只需要做一个简单的加减运算即可得到结果,这个预处理的实现对于图像处理中的减少运算量有极大的启发。

 

2. PCA&LBP

PCA(Principal Component Analysis)主成因分析:

是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。PCA是人脸识别的主流方法之一。

其核心思想是:重整高维数据,提取其中的重要部分,忽略其中无关紧要的部分。

实例:3维降为2维:


PCA不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。

LBP (Local Binary Pattern)局部二值模式:

LBP是一种用来描述图像局部特征的算子,LBP特征具有灰度不变性和旋转不变性等显著优点。LBP特征比较出名的应用是用在人脸识别和目标检测中。

原始LBP特征描述及计算方法:

原始的LBP算子定义在像素3*3的邻域内,以邻域中心像素为阈值,相邻的8个像素的灰度值与邻域中心的像素值进行比较,若周围像素大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,3*3邻域内的8个点经过比较可产生8位二进制数,将这8位二进制数依次排列形成一个二进制数字,这个二进制数字就是中心像素的LBP值,LBP值共有28种可能,因此LBP值有256种。中心像素的LBP值反映了该像素周围区域的纹理信息。

LBP特征的改进版本:

在原始的LBP特征提出以后,研究人员对LBP特征进行了很多的改进,因此产生了许多LBP的改进版本:

圆形LBP: 3×3 邻域扩展到任意邻域,并用圆形邻域代替了正方形邻域,改进后的 LBP 算子允许在半径为 R 的圆形邻域内有任意多个像素点。从而得到了诸如半径为R的圆形区域内含有P个采样点的LBP算子:


旋转不变LBP特征:上面的LBP特征具有灰度不变性,但还不具备旋转不变性,因此研究人员又在上面的基础上进行了扩展,提出了具有旋转不变性的LBP特征。

首先不断的旋转圆形邻域内的LBP特征,根据选择得到一系列的LBP特征值,从这些LBP特征值选择LBP特征值最小的作为中心像素点的LBP特征。具体做法如下图所示:


如图,通过对得到的LBP特征进行旋转,得到一系列的LBP特征值,最终将特征值最小的一个特征模式作为中心像素点的LBP特征。

3. HOG(方向梯度直方图):

与其他的特征描述方法相比,HOG有很多优点。首先,由于HOG是在图像的局部方格单元上操作,所以它对图像几何的和光学的形变都能保持很好的不变性,这两种形变只会出现在更大的空间领域上。其次,在粗的空域抽样、精细的方向抽样以及较强的局部光学归一化等条件下,只要行人大体上能够保持直立的姿势,可以容许行人有一些细微的肢体动作,这些细微的动作可以被忽略而不影响检测效果。因此HOG特征是特别适合于做图像中的人体检测的。

大概过程:

1)灰度化

2)采用Gamma校正法对输入图像进行颜色空间的标准化(归一化);目的是调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;

3)计算图像每个像素的梯度(包括大小和方向);主要是为了捕获轮廓信息,同时进一步弱化光照的干扰。

4)将图像划分成小cells;

5)统计每个cell的梯度直方图(不同梯度的个数),即可形成每个cell的描述子;

6)将每几个cell组成一个block,一个block内所有cell的特征描述子串联起来便得到该block的HOG特征描述子。

7)将图像image内的所有block的HOG特征描述子串联起来就可以得到该image(你要检测的目标)的HOG特征描述子了。这个就是最终的可供分类使用的特征向量了。

一个图像的HOG特征维数:

举例说明:对于64*128的图像而言,每8*8的像素组成一个cell,每2*2cell组成一个块,因为每个cell9个特征,所以每个块内有4*9=36个特征,以8个像素为步长,那么,水平方向将有7个扫描窗口,垂直方向将有15个扫描窗口。也就是说,64*128的图片,总共有36*7*15=3780个特征。

4. SIFT:

SIFT 特征是基于物体上的一些局部外观的兴趣点而与影像的大小和旋转无关。对于光线、噪声、些微视角改变的容忍度也相当高。基于这些特性,它们是高度显著而且相对容易撷取,在母数庞大的特征数据库中,很容易辨识物体而且鲜有误认。使用 SIFT特征描述对于部分物体遮蔽的侦测率也相当高,甚至只需要3个以上的SIFT物体特征就足以计算出位置与方位。在现今的电脑硬件速度下和小型的特征数据库条件下,辨识速度可接近即时运算。SIFT特征的信息量大,适合在海量数据库中快速准确匹配。

主体步骤:

1. 尺度空间极值检测:搜索所有尺度上的图像位置。通过高斯微分函数来识别潜在的对于尺度和旋转不变的兴趣点。

2. 关键点定位:在每个候选的位置上,通过一个拟合精细的模型来确定位置和尺度。关键点的选择依据于它们的稳定程度。

3. 方向确定:基于图像局部的梯度方向,分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性。

4. 关键点描述:在每个关键点周围的邻域内,在选定的尺度上测量图像局部的梯度。这些梯度被变换成一种表示,这种表示允许比较大的局部形状的变形和光照变化。


其中主要的核心思想是:

1.用高斯核函数实现尺度变换;

2.用高斯差分金字塔(DOG)近似代替了拉普拉斯算子进行极值检测。

3.关键点方向分配中,使用了类似HOG直方图类似的方法。

4.通过对描述子进行统一操作:旋转ox轴到主方向,解决旋转不变性;对特征向量进行归一化,消除光照影响和整体漂移。

当然SIFT也有缺点:

实时性不高,对于边缘光滑,模糊,平滑的图像特征点少。


5. SURF:

主要步骤:

1. 构建Hessian(黑塞矩阵),生成所有的兴趣点,用于特征的提取;

2. 构建尺度空间

3. 特征点定位

4. 特征点主方向分配

5. 生成特征点描述子

6. 特征点匹配

SURF大体思想与SIFT是类似的,但是在很多地方有所不同。

首先不同的是关键点的检测方法不一样,SIFT使用的是高斯差分金字塔中在点进行上下周围26点检测,而SURF则是使用Hession矩阵探测器(hession矩阵与盒子滤波器)找出斑点;

与SIFT的尺度构造方法不同的是,并没有使用高斯金字塔,高斯金字塔从下到上,图片大小会变小。而surf的金字塔图片大小不会变,而取而代之,是通过改变卷积模板的尺寸来实现的。

另一个不同点是在特征点的方向分配方式上,SIFT中使用了8个方向的方向直方图,这样一个关键点特征描述向量有4x4x8=128维,而SURF水样的特征点方向分配是使用特征点半径内的点在x,y方向上的响应,这样每个点的方向信息从8维压缩到了4维,一个关键点特征描述向量也变为4x4x4=64维。


通过这些改变,包括Hession矩阵找关键点,以及关键点特征描述向量的降维,大大减少了计算量,这就使得SURF和SIFT比起来在运算速度上快很多,但是另一方面,SURF的精度就要稍微差一点。

 

6. 各种距离度量方法:

例子:计算向量(0,0)、(1,0)、(0,2)两两间的曼哈顿距离

X = [0 0 ; 1 0 ; 0 2]

 

1:欧式距离:


Matlab用法:

D = pdist(X,'euclidean')

2. 曼哈顿距离:


D = pdist(X, 'cityblock')

3. 切比雪夫距离:


D = pdist(X,'chebychev')

4. 闵可夫斯基距离:

其中p是一个变参数。

当p=1时,就是曼哈顿距离

当p=2时,就是欧氏距离

当p→∞时,就是切比雪夫距离      

根据变参数的不同,闵氏距离可以表示一类的距离。

D =pdist(X,'minkowski',2)

5. 标准化欧氏距离:


D = pdist(X, 'seuclidean',[0.5,1])

6. 马氏距离:


Y =pdist(X,'mahalanobis')

7. 巴氏距离:

在同一定义域 X中,对于离散概率分布 p和q,它被定义为:


8. 汉明距离:

两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数,即两个字符串对应位置的不同字符的个数。

如:

1011101与 1001001 之间的汉明距离是2   

2143896与 2233796 之间的汉明距离是3   

 irie与 rise之间的汉明距离是 3

9. 夹角余弦:


D = 1- pdist(X,'cosine')




2018-03-01 17:03:31 anpingbo 阅读数 188

根据处理的图像,声音,文本等信息的统计特性,可以给出很多反映信息特性的特征。模式识别也是对特征的辨别,不管是有监督的学习分类还是无监督的聚类,都间接或者直接的对特征进行了提取或者表征。比如线性回归,在使用一条曲线拟合一堆数据的时候,这条曲线(或者曲线参数)就是这堆数据的特征,而结果和实际值的平方和就是这种特征和数据的接近程度。
1. 图像的区域特征
(1) 一阶统计特征:
一幅图像的一阶统计特征包括其直方图,矩,中心矩。直方图反映了图像灰度的分布概率,方差是直方图宽度的度量,反映了灰度级和平均值之间的差别。中心距u3反映了直方图倾斜度,u4是直方图峰度。熵是直方图均匀度的度量,熵越大表示直方图越接近均匀分布。熵的表达式为:
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

2019-08-11 19:11:11 sinat_33188831 阅读数 27

注:本博客为个人根据教材内容进行整理,有不足之处敬请指正。

教材函数整理

8.2 编码冗余

entropy函数:计算矩阵的一阶熵估计

function h = entropy( x,n )
%ENTROPY 计算了一个矩阵熵的一阶估计
%   h = entropy( x,n )返回具有N个符号(N=256)的矩阵X的一阶估计
%该估计假设一个统计独立的来源,其特征在于X中元素的相对出现频率。
error(nargchk(1,2,nargin));    %check input arguments
if nargin < 2
    n =256;
end
x = double(x);                           %make input double
xh = hist(x(:),n);                         %计算N-bin直方图
figure; imshow(xh);
xh = xh / sum(xh(:));                  %计算概率

%make mask to eliminate 0's since log2(0) = -inf
i = find(xh);
h = -sum(xh(i) .* log2(xh(i)));    %计算熵
end

 

8.2.1

Huffman函数

huffman.m

 function CODE = huffman( p )
%HUFFMAN 为一个符号资源构建一个可变长的huffman编码
%   code = huffman(p)对于输入符号概率向量P以二值字符串的形式返回一个哈夫曼编码

%check the input arguments for reasonableness
error(nargchk(1,1, nargin));
if (ndims(p) ~= 2) | (min(size(p))>1) | ~isreal(p) | ~isnumeric(p)
    error('P must be a real numeric vector.');
    
end

%global varibale surviving all recursions of function 'makecode'
global CODE
CODE = cell(length(p), 1);      %初始化全局元胞数组
if length(p) > 1                        %when mor than one symbol...
    p = p / sum(p);                    %归一化输入概率
    s = reduce(p);                      %do huffman source symbol reductions
    makecode(s,[]);                    %递归生成编码
else
    CODE = {'1'};                       %else, trivial one symbol case!
    
end

%--------------------------------------------------------------------------------------%
    function s = reduce(p);
        %通过执行源符号缩减在单元结构中创建霍夫曼源减少树,
        %直到只剩下两个减少的符号
        s = cell(length(p),1);
        %生成具有符号节点1,2,3,...的起始树以引用符号概率
        for i = 1:length(p)
            s{i} = i;
        end
        while size(s) > 2
            [p,i] = sort(p);               %符号概率分类
            p(2) = p(1) +p(2);        %合并两个最低概率
            p(1) = [];                       %丢弃最低值
            s = s(i);                          %对新的概率重新排列树
            s{2} = {s{1} , s{2}};         %并且合并和简化他的节点
            s(1) = [];                        %以匹配概率
        end
    end

end

makecode.m


     function makecode(sc, codeword)
     %以递归方式扫描霍夫曼源简化树的节点以生成指示的可变长度码字   
     %global variable surviving all recursive calls
     global CODE
     if isa(sc,'cell')                                                %对于元胞数组节点,
         makecode(sc{1}, [codeword 0]);            %如果是第1个元素,增加一个0
         makecode(sc{2}, [codeword 1]);            %如果是第2个元素,增加一个1
     else                                                               %对于叶子(数字)节点,
         CODE{sc} = char('0' + codeword);        %创建一个字符编码字符串 
     end
     end

一个问题是,我是按照课本上编写的,但是运行之后的Huffman编码里面有几项为空,修改之后也不知道是什么问题

运行代码和结果如下:

p = [0.1875 0.5 0.125 0.1875];
c = huffman(p);

 

2018-09-11 08:46:53 llfjcmx 阅读数 1095

在图像增强中我们也可以使用直接从直方图中获得的统计参数。

1、平均值、方差的定义

令r表示在区间[0 , L-1]上代表离散灰度的离散随机变量,并且令p(r_{i})表示对应于r_{i}的归一化直方图分量,我们可以把p(r_{i})看做是灰度级r_{i}出现的概率估计值。

(1)r的均值定义为:m=\sum_{i=0}^{L-1}r_{i}p(r_{i})

(2)r关于其均值的n阶矩定义为:u_{n}(r)=\sum_{i=0}^{L-1}(r_{i}-m)^{n}p(r_{i})

其中当n=2(二阶矩)非常重要:u_{2}(r)=\sum_{i=0}^{L-1}(r_{i}-m)^{2}p(r_{i}),我们将该表达式称为灰度方差,通常用\sigma ^{2}(r)来表示。(标准差是方差的平方根)。

我们考虑均值和方差这两种增强应用。全局均值和方差是在整幅图像上计算的,这对于灰度和对比度的总体调整是有用的。对于这些参数的一种更有效的应用是局部增强,在局部增强中,局部均值和局部方差是根据图像中每个像素的领域内的图像特征进行改变的基础。

2、局部均值和局部方差

(x,y)表示图像中任意像素的坐标,令s_{xy}表示规定大小的以(x,y)为中心的邻域(子图像)。该邻域的平均值m_{s_{xy}}和灰度级方差\sigma ^{2}_{s_{xy}}可以用下列式子计算:

(1)m_{s_{xy}}=\sum_{i=0}^{L-1}r_{i}p_{s_{xy}}(r_{i})

表达式中p_{s_{xy}}是区域s_{xy}中像素的直方图,该直方图由L个分量,对应于输入图像中L个可能的灰度值。其中许多灰度值为0,具体取决于s_{xy}的大小。

(2)\sigma ^{2}_{s_{xy}}=\sum_{i=0}^{L-1}(r_{i} - m_{s_{xy}})^2 p_{s_{xy}}(r_{i})

和全局均值和全局方差相同,均布均值是对邻域s_{xy}中的平均灰度的度量,局部方差(或者标准差)是对邻域中灰度对比度的度量。

下面来看一道使用直方图统计的局部增强的例子。

下图(1)显示了一根绕在支架上的钨丝的SEM(扫描电子显微镜)图像。可以看到图像中央的支架很清楚并很容易分析;但是在图像的右侧即图像的暗侧,有一根钨丝的结构,但是由于太暗几乎看不到,其大小和特征也不容易辨认。

图(1):

在这种情况下,目前的问题是要增强暗色区域,同时尽可能使得明亮区域不变,因为明亮区域并不需要增强。

图(2)是使用全局直方图均衡化之后的结果:

图(2):

从全局直方图均衡化的结果图中可以看出,暗色区域有了一点点改善,但是也不是很容易分辨,同时明亮区域也发生了一些变化,这是我们不想看到的。

图(3)是使用局部直方图统计参数增强后的图像:

图(3):

从处理结果可以看到,暗色区域显示效果比之前好了很多,同时明亮区域被很好的保留了下来。

下面来看一下实现直方图统计的局部增强的过程:

(使用本节介绍的概念可以得到一种增强方法,这种方法能分辨暗色区域和明亮区域的不同,同时只增强暗色区域)

1、判断一个区域在点(x,y)处是暗还是亮的方法?

把局部平均灰度{\color{Red} m_{s_{xy}}}{\color{Red} m_{G}}并称之为全局均值的平均图像灰度进行比较:

如果{\color{Red} m_{s_{xy}}\leq k_{0}m_{G}},其中{\color{Red} k_{0}}是一个值小于1.0的正常数,我们将把点{\color{Red} (x,y)}处的像素考虑为处理的候选点。

2、因为我们感兴趣的是增强低对比度的区域,所以还需要一种度量方法来确定一个区域的对比度是不是可以作为增强的候选点。怎么来确定呢?

如果{\color{Red} \sigma _{s_{xy}}\leq k_{2}\sigma_{G}},则认为点{\color{Red} {\color{Red} }(x,y)}处的像素是增强的候选点,其中{\color{Red} \sigma_{G}}是全局标准差,{\color{Red} k_{2}}为正常数。(若我们的兴趣是增强亮区域,则该常数大于1.0,对于暗区域,则该常数小于1.0)。

但是,很明显\sigma_{G}不能无限的小下去呀!所以我们需要限制能够接受的最低对比度的值,否则上面的过程会试图去增强标准差为0的恒定区域。我们通过下列式子来进行限制:

要求\fn_cm {\color{Red} \sigma_{s_{xy}}\geq k_{1}\sigma_{G}}{\color{Red} k_{1} < k_{2}},通过这个式子可以对局部标准差设置一个较低的限制值。

找到了候选点之后,进行什么操作来实现增强的效果呢?

满足局部增强所有条件的一个位于点{\color{Red} (x,y)}处的像素,可以简单的通过将像素值乘以一个指定常数E来处理,以便相对于图像的其它部分增大(或减少)其灰度值。不满足增强条件的像素则保持不变。

用一个公式来表示这个过程的话,可以表示为如下的形式:

{\color{Red} f(x,y)}表示在图像任意坐标{\color{Red} {\color{Red} }(x,y)}处的像素值,令{\color{Red} g(x,y)}表示这些坐标处相应的增强的像素值,则有:

{\color{Red} g(x,y)= \left\{\begin{matrix} E*f(x,y), m_{s_{xy}}\leq k_{0}m_{G} \delta \delta k_{1}\sigma_{G}\leq \sigma_{s_{xy}}\leq k_{2}\sigma_{G} \\ f(x,y),else \end{matrix}\right.}

到这里,灰度变换的内容就暂时结束了。下一篇学习空间滤波的相关知识。

2018-06-12 17:14:09 ssqqssqq 阅读数 1276

基于分数阶傅里叶变换统计信息的人脸识别(孙慧静)

文章地址:paper

分数阶傅里叶变换作为新兴的图像处理工具,可以看作信号在时频平面进行任意角度的逆时针旋转。它引入了变换阶次,可以分析信号的时频域信息,通过阶次变换决定时频域信息的占比。
由于分数阶傅里叶变换不是保实的,对其幅度相位信息单独分析。对幅度信息进行了统计分析,首次对幅度信息含有判别信息进行了论证另外,利用幅度信息对图谱结构具有鲁棒性的特性,解决了局部保持投影的相似矩阵对近邻数目敏感的问题
本文首次提出差异脸,利用类间差异大与类内差异小,更好地识别人脸。把差异脸与相位信息统计特性相结合,利用相位信息的稀疏性,合理地设置阈值解决了人脸识别对外界因素敏感的问题。在实验过程中,每人仅提取一个训练样本,其余均用作测试,不仅得到了理想的识别效果,还解决了小样本问题。


1.目前关于人脸识别的方法综述

1.1基于空域的人脸识别方法

1) 主成分分析(Principal Component Analysis,PCA)。是一种线性变换,该方法通过构建协方差矩阵对图像进行处理和特征提取,最终实现样本的最优化重建。实现步骤: A. 计算图像的总散度矩阵,提取图像的主成分形成特征子空间。B. 在特征子空间分析图像,不仅提取了图像的主要判别信息,而且降低了图像的维数,提高了识别的速度。优点:因为是线性变换,描述数据时方便快捷。缺点:其核心没有以分类为目的,不是很适用于模式识别类问题;其产生的特征向量只是考虑图像之间的所有差异,忽略了类别信息。因此无法辨别这些差异来自类间还是类内。
2)线性判别分析(Linear Discriminant Analysis,LDA)。是基于PCA的改进算法,改进的点在于:考虑了人脸的类别信息,分别考虑了类内离散度和类间离散度,使得类间与类内比值最大,即最大化类间离散度、最小化类内离散度。缺点:不能很好的解决小样本问题。解决措施:将PCA和LDA相结合提出Fisher脸,即 Fisher Linear Discriminant Analysis (FLDA)。首先用PCA对图像进行降维,使得类内矩阵转化为可逆矩阵,同时也解决奇异问题。
3)局部保持投影(Locality Preserving Projection, LPP)。在流形空间提取人脸特征
4)稀疏表示 (Sparse Representation, SR)。将人脸训练图像线性表示测试图像,其中表示系数会构成一个字典,然后可以用稀疏重构法求解字典。稀疏表示中最重要的就是字典的求取,为了得到更为稀疏的字典表示,需要大量的训练样本。优点:能够用少量元素表示复杂信号;缺点:需要大量的训练样本,不适用于小样本问题,但过多的训练样本又会带来字典冗余问题

1.2基于变换域的人脸识别方法

1)基于Gabor的人脸特征提取方法。Gbaor具有良好的空间频率,空间局部特性及方向选择性等优点,能够提取图像局部区域多尺度、多方向的显著特征。目前,基于 Gabor 变换的人脸识别算法主要有两种,一种是弹性图匹配法,另一种为基于 Gabor 特征的子空间分析法。前者基于人工标记关键特征点,后者是通过下采样对原始Gabor特征进行降维,然后进行子空间分析。二者缺点:理论上两幅图都需要点对点对应,实际操作却很难实现。因此就出现了较多基于Gabor的改进方法,比较典型的就是将Gabor与局部二值模式相结合
利用小波函数用于人脸识别的优点在于:既可以得到图像信息又能够得到频率信息。缺点: 得到的特征维度较高,冗余信息较多,运算复杂度较大,原因是小波变换在处理图像时,主要利用图像多尺度、多方向信息。若是进行降维,则有可能去掉一些有用的判别信息,从而导致识别率下降。
2)基于分数阶傅里叶变换的人脸识别。分数阶傅里叶变换是傅里叶变换的广义形式。傅里叶变换是全局变换,不能同时兼顾频域信息和时域信息。FRFT是一种时频变换,能够同时获得时频信息。

2.可行性分析

将分数阶傅里叶变换用于人脸特征提取,由于分数阶傅里叶变换是不保实的,需要对幅度和相位分别进行分析。幅度信息:先判别幅度信息是否含有判别信息,其次,幅度反应能量聚集性,很少含有图像的纹理信息,对图像的拓扑结构性有较好的鲁棒性。相位信息:含有较多的纹理信息,不同阶次包含的低频和高频信息不尽相同。

3.基于分数阶傅里叶变换幅度信息的人脸识别

本文提出基于分数阶域幅度特征的人脸识别,将多阶次的幅度特征信息进行融合(Multiple orders’ amplitude information fusion, MOAF)。优点:首次将分数阶域幅度信息特征用于人脸识别,且对幅度信息做详细解释,并从三维人脸图像的统计特性上看出幅度信息不仅反映能量的聚集性还具有判别信息。其次,幅度信息特征主要反映能量分布,对图像拓扑结构具有较好的鲁棒性,且对外界因素具有鲁棒性。

3.1幅度信息及阶次选择

对分数域的幅度信息进行逆变换,得到如图3.1,可以看出随着阶次逐渐变大,图像的能量越来越聚集
这里写图片描述
由于分数阶傅里叶变换的周期为4,且存在对称性,本文选择对阶次0~2进行研究,间隔取0.1,利用迹比值来选取要融合的阶次,迹比值越大表示包含的信息越多,计算公式如下:
这里写图片描述
本文选取三个阶次的幅度信息进行融合,阶次选太少会导致信息量不足,阶次过多会导致信息量冗余,融合模型如下:
这里写图片描述
为了验证幅度信息包含有判别信息,将其与直接使用图像灰度信息进行对比,实验证明幅度信息具有含有判别信息。利用 LPCCA 对多阶次的 2D-DFrFT 幅度信息融合。LPCCA 在信息融合过程中对两个阶次的特征进行融合,剩余的阶次特征在降维后直接串联在 LPCCA形成的特征向量之后。实验结果表明融合多阶次的幅度信息能够具有很好的识别效果。

4.基于分数阶 Fourier 域广义相位谱带特征融合的人脸识别

分数域的相位谱包含丰富的边缘和纹理信息,结合不同阶次下的相位谱包含不同的信息,通过计算迹比值,对不同阶次的相位谱进行融合,得到新的广义相位谱(Multiple orders’ generalized phase spectrum band fusion, MGPSB)。优点:不仅能够提取低阶次中相位谱的平滑信息,还能提取高阶次中相位谱的边缘信息。对分数域的相位谱做逆变换可以发现,随着阶次的逐渐变大,图像的轮廓逐渐清晰。

4.1阶次划分

由于分数阶傅里叶变换有周期性,且周期为4。且由于对称性,[0,2]与[2,4]之间对称,而[0,1]和[1,2]对称,因此只需对阶次[0,1]进行研究即可。0.1~0.3:低阶次,0.4~0.6:中阶次,0.7`~0.9:高阶次。划分理由:同一范围内不同阶次差异较小,不同范围内不同阶次差异较大。融合框架如下:
这里写图片描述

5.基于分数阶 Fourier 域差异脸的人脸识别

人脸识别目前存在的问题:人脸图像容易受到光照、表情、遮挡等因素的影响,导致同一个人不同照片表现差异较大,当外界因素干扰严重时,会导致同一人不同照片之间的差异大于不同人之间的差异,从而大大影响了识别率。除此之外,小样本问题也是急需解决的问题。
基于以上原因,本文提出基于分数域差异脸的人脸识别方法。对所有人脸进行 2D-DFrFT,提取其相位信息,对变换后的每一类的测试人脸图像减去训练图像,得到差异图。通过对差异图的统计信息进行分析,发现其统计信息具有一定的稀疏性。对得到的数据进行阈值分析,以更好的利用差异脸的稀疏性。
在测试过程中,不直接对人脸图像处理,而是用测试人脸减去每一类训练人脸图像,从而得到差异脸,如果测试图片与训练图像属于同一个人,那么差异只会来自于外界因素,差异不会很大,如果不属于同一个人,那么差异不只来自于外界因素,还会受到类间因素的影响,相对来说差异就会比较大。
差异脸受外界因素的影响,如何减弱甚至消除外界因素对识别率的影响,是本章关注的问题。图像经过二维离散分数阶傅里叶变换之后,其相位信息反应的是图像的边缘信息,其中比较小的值是噪声(光照、表情变化等)扰动。如果能够去除噪声扰动,就会削弱外界因素的影响在本文中,我们对图像先进行 2D-DFrFT,提取其广义相位谱,然后再求出差异脸。算法框架图如下:
这里写图片描述

本文利用 2D-DFrFT 相位统计信息的稀疏性,通过阈值设置减小噪声扰动,削弱了外界因素(例如光照、表情、遮挡、像素污染等因素)的影响,提高了算法对外界算法的鲁棒性。

浅谈 “矩”的概念

阅读数 1434

灰度共生矩阵

阅读数 81

没有更多推荐了,返回首页