2014-04-15 10:41:15 Angelahhj 阅读数 4375
  • OpenGL视频教程

    初级教程共11个课时,在教程中,我们将从基本的开始,你将学会如何创建窗口,然后,会学到如何创建一个三维的网格? 你会学到如何使用强大的着色器进行编程,如何创建纹理,如何使用光照, 终实现一套完整的渲染管线,得到一个猴子的模型。

    56466 人正在学习 去看看 黄棒清

图像特征的分类有多种标准,根据特征自身的特点可以分为两类:描述物体外形的形状特征和描述物体灰度变换的纹理特征。根据特征提取所采用的方法的不同又可以分为统计特征和结构(句法)特征。特征选取的标准是,1)易提取;2)稳定性;3)具有区分度。

 

统计特征提取的方法有哪些?

直方图,在直方图基础上衍生出来的一些其他的方法,如均值、方差、熵、矩等;

灰度共生矩阵;

 

图像特征提取一般提取三个方面的特征,即颜色、纹理、形状。

 

颜色特征:

相对于RGB空间来说,HSV空间对光照(和噪声)鲁棒性好,所以将RGB转成HSV。根据HSV三个分量的范围,将颜色空间分成若干个color bins,统计颜色直方图。

Hhue)色彩,又称为色调,是指色彩的相貌,与色彩明暗无关;

SSaturation)饱和度,是色彩纯与不纯的分别;

VValue)亮度,是指色彩的明暗程度、光度的高低,越接近白色亮度越高。

但是颜色直方图并没有反映颜色空间分布的信息,也没有表达出图像中物体的形状。

纹理特征:

关于纹理,目前并没有统一的定义。我们可以理解成纹理元的重复,构成了纹理。纹理特征的提取方法可以分成四类:基于统计特征的纹理分析(如灰度共生矩阵、Tamura提出的6个特征的方法)、基于信号处理的分析(如小波变换)、基于结构的纹理分析、基于模型的纹理分析(如数字图像变换法、小波变换)。

1.      基于统计特征的纹理分析

基于统计特征的纹理分析是基于像元及其邻域的灰度属性,研究纹理区域中的统计特征或者像元及其邻域内的灰度的一阶、二阶、高阶统计特征。

应用最广

l  Tamura等从心理学角度定义的六个基本特征,即粗糙度(coarseness)、对比度(contrast)、方向性(directionality)、线像度(line likeness)、规则性(regularity)、粗略度(roughness),这是一组与人类视觉特性对应的纹理特征。

l  Amadasun等定义的基于邻域灰度差别矩阵的纹理特征,包括稀疏度、繁忙度、纹理粒度等5个特征。

l  Haralick等定义的基于灰度共生矩阵的纹理特征,常用统计量包括角二阶矩、对比度、相关、方差、熵等。

 

2.      基于信号处理的纹理分析

基于信号处理的纹理分析是建立在时域、频域分析与多尺度分析基础之上,对纹理图像中某个区域进行某种变换后,再提取保持相对平稳的特征值。

3.      基于模型的纹理分析

基于模型的纹理分析假设纹理是以某种参数控制的分布模型方式形成的,从纹理图像的实现来估计计算模型参数,以参数为特征或用某种分类策略进行图像分割。参数估计是该方法的核心问题。

4.      基于结构特征的纹理分析

l  句法(syntactic)纹理描述方法

l  数学形态学方法

适合周期性好的纹理,比如棋盘、布纹

使用范围较窄

 

 

形状特征:

形状特征主要包括基于边缘的特征和基于区域的特征。提取边缘特征,首先通过SoberCanny等边缘检测算子得到边缘,再计算链码、边缘梯度直方图等特征。但是这种方法有一定的缺陷,边缘信息是很不稳定的信息,内容相似的图片在边缘形状的视觉效果上也可能会存在很大的差异。基于区域的特征提取方法包括傅里叶变换、不变矩等,这种方法对图像的平移、旋转、伸缩具有不变性。

基于边缘特征的一种方法是检测边缘,得到角点,也就得到了物体的大致轮廓,然后计算相邻角点的n阶矩。

 

 

2017-04-06 21:58:45 selous 阅读数 26104
  • OpenGL视频教程

    初级教程共11个课时,在教程中,我们将从基本的开始,你将学会如何创建窗口,然后,会学到如何创建一个三维的网格? 你会学到如何使用强大的着色器进行编程,如何创建纹理,如何使用光照, 终实现一套完整的渲染管线,得到一个猴子的模型。

    56466 人正在学习 去看看 黄棒清

题目描述

这篇博文是数字图像处理的大作业.
题目描述:给定40张不同风格的纹理图片,大小为512*512,要求将每张图片分为大小相同的9块,利用其中的5块作为训练集,剩余的4块作为测试集,构建适当的模型实现图片的分类.
图片如下图所示:

这里写图片描述

分析:由于数据集太小,所以神经网络模型并不适合此类的图像处理.就需要寻找方法提取图像的纹理信息.本文采用LBP的方法提取图像的纹理信息,然后转化成直方图作为图像的特征,然后使用多分类的方法进行分类.

环境

python2.7,jupyter notebook,anaconda
数据集的地址:https://pan.baidu.com/s/1bpjC7Vp

实现

读取数据

Numpy包数组操作API格式化数据

def loadPicture():
    train_index = 0;
    test_index = 0;
    train_data = np.zeros( (200,171,171) );
    test_data = np.zeros( (160,171,171) );
    train_label = np.zeros( (200) );
    test_label = np.zeros( (160) );
    for i in np.arange(40):
        image = mpimg.imread('picture/'+str(i)+'.tiff');
        data = np.zeros( (513,513) );
        data[0:image.shape[0],0:image.shape[1]] = image;
        #切割后的图像位于数据的位置
        index = 0;
        #将图片分割成九块
        for row in np.arange(3):
            for col in np.arange(3):
                if index<5:
                    train_data[train_index,:,:] = data[171*row:171*(row+1),171*col:171*(col+1)];
                    train_label[train_index] = i;
                    train_index+=1;
                else:
                    test_data[test_index,:,:] = data[171*row:171*(row+1),171*col:171*(col+1)];
                    test_label[test_index] = i;
                    test_index+=1;
                index+=1;
    return train_data,test_data,train_label,test_label;

特征提取

LBP特征提取方法

radius = 1;
n_point = radius * 8;

def texture_detect():
    train_hist = np.zeros( (200,256) );
    test_hist = np.zeros( (160,256) );
    for i in np.arange(200):
        #使用LBP方法提取图像的纹理特征.
        lbp=skft.local_binary_pattern(train_data[i],n_point,radius,'default');
        #统计图像的直方图
        max_bins = int(lbp.max() + 1);
        #hist size:256
        train_hist[i], _ = np.histogram(lbp, normed=True, bins=max_bins, range=(0, max_bins));

    for i in np.arange(160):
        lbp = skft.local_binary_pattern(test_data[i],n_point,radius,'default');
        #统计图像的直方图
        max_bins = int(lbp.max() + 1);
        #hist size:256
        test_hist[i], _ = np.histogram(lbp, normed=True, bins=max_bins, range=(0, max_bins));


    return train_hist,test_hist;

训练分类器

SVM支持向量机分类.

import matplotlib.image as mpimg
import matplotlib.pyplot as plt
import numpy as np
from sklearn.multiclass import OneVsRestClassifier
from sklearn.svm import SVR
from skimage import feature as skft
train_data,test_data,train_label,test_label= loadPicture();
train_hist,test_hist = texture_detect();
svr_rbf = SVR(kernel='rbf', C=1e3, gamma=0.1);
OneVsRestClassifier(svr_rbf,-1).fit(train_hist, train_label).score(test_hist,test_label)

实验测试集结果的正确率为:90.6%
这里写图片描述

第一次使用python的numpy包,对其中的api是真的不熟悉,代码还可以优化.其中和matlab里的矩阵操作也有不少不同,但是关于机器学习的scikitlearn包确实很好用.

总结:结果的正确率不是很高,所以还是可以在分类器上优化,或者寻找更好的特征提取的方式.

—————–2017.4.6

2019-09-13 12:45:06 Vichael_Chan 阅读数 538
  • OpenGL视频教程

    初级教程共11个课时,在教程中,我们将从基本的开始,你将学会如何创建窗口,然后,会学到如何创建一个三维的网格? 你会学到如何使用强大的着色器进行编程,如何创建纹理,如何使用光照, 终实现一套完整的渲染管线,得到一个猴子的模型。

    56466 人正在学习 去看看 黄棒清

一、特征提取概念

特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。

二、特征概述

至今为止特征没有万能和精确的定义。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。因此特征提取最重要的一个特性是“可重复性”:同一场景的不同图像所提取的特征应该是相同的。 

特征提取检查每个像素来确定该像素是否代表一个特征。假如它是一个更大的算法的一部分,那么这个算法一般只检查图像的特征区域。作为特征提取的一个前提运算,输入图像一般先在尺度空间中被平滑,此后通过局部导数运算来计算图像的一个或多个特征。
有时,假如特征提取需要许多的计算时间,而可以使用的时间有限制,一个高层次算法可以用来控制特征提取阶层,这样仅图像的部分被用来寻找特征。
由于许多计算机图像算法使用特征提取作为其初级计算步骤,因此有大量特征提取算法被发展,其提取的特征各种各样,它们的计算复杂性和可重复性也非常不同。
下面是用来描述图像的一些基本概念:

1.边缘

边缘是组成两个图像区域之间边界(或边缘)的像素。一般一个边缘的形状可以是任意的,还可能包括交叉点。在实践中边缘一般被定义为图像中拥有大的梯度的点组成的子集。一些常用的算法还会把梯度高的点联系起来来构成一个更完善的边缘的描写。这些算法也可能对边缘提出一些限制。局部地看边缘是一维结构。

2.角

角是图像中点似的特征,在局部它有两维结构。早期的算法首先进行边缘检测,然后分析边缘的走向来寻找边缘突然转向(角)。后来发展的算法不再需要边缘检测这个步骤,而是可以直接在图像梯度中寻找高度曲率。后来发现这样有时可以在图像中本来没有角的地方发现具有同角一样的特征的区域。

3.区域

与角不同的是区域描写一个图像中的一个区域性的结构,但是区域也可能仅由一个像素组成,因此许多区域检测也可以用来监测角。一个区域监测器检测图像中一个对于角监测器来说太平滑的区域。区域检测可以被想象为把一张图像缩小,然后在缩小的图像上进行角检测。

4.脊

长条形的物体被称为脊。在实践中脊可以被看作是代表对称轴的一维曲线,此外局部针对于每个脊像素有一个脊宽度。从灰梯度图像中提取脊要比提取边缘、角和区域困难。在空中摄影中往往使用脊检测来分辨道路,在医学图像中它被用来分辨血管。
特征被检测后它可以从图像中被抽取出来。这个过程可能需要许多图像处理的计算机。其结果被称为特征描述或者特征向量。

三、常用图像特征概述

常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。

1.颜色特征

1.1基本概念
颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。
1.2常用的特征提取与匹配方法
(1) 颜色直方图
其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。
最常用的颜色空间:RGB颜色空间、HSV颜色空间。
颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。
(2) 颜色集
颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从 RGB颜色空间转化成视觉均衡的颜色空间(如 HSV 空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系
(3) 颜色矩
这种方法的数学基础在于:图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(mean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。
(4) 颜色聚合向量
其核心思想是:将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。

2.纹理特征

2.1基本概念
纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是,纹理特征也有其缺点,一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实的纹理。例如,水中的倒影,光滑的金属面互相反射造成的影响等都会导致纹理的变化。由于这些不是物体本身的特性,因而将纹理信息应用于检索时,有时这些虚假的纹理会对检索造成“误导”。 在检索具有粗细、疏密等方面较大差别的纹理图像时,利用纹理特征是一种有效的方法。但当纹理之间的粗细、疏密等易于分辨的信息之间相差不大的时候,通常的纹理特征很难准确地反映出人的视觉感觉不同的纹理之间的差别。

2.2常用的特征提取与匹配方法
(1)统计方法
统计方法的典型代表是一种称为灰度共生矩阵的纹理特征分析方法。灰度共生矩阵的四个关键特征是能量、惯量、熵和相关性。统计方法中另一种典型方法是从图像的自相关函数(即图像的能量谱函数)提取纹理特征,即通过对图像的能量谱函数的计算,提取纹理的粗细度及方向性等特征参数
(2)几何法
所谓几何法,是建立在纹理基元(基本的纹理元素)理论基础上的一种纹理特征分析方法。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元以一定的有规律的形式重复排列构成。在几何法中,比较有影响的算法有两种:Voronio 棋盘格特征法和结构法。
(3)模型法
模型法以图像的构造模型为基础,采用模型的参数作为纹理特征。典型的方法是随机场模型法,如马尔可夫(Markov)随机场(MRF)模型法和 Gibbs 随机场模型法
纹理特征的提取与匹配主要有:灰度共生矩阵、Tamura 纹理特征、自回归纹理模型、小波变换等。
灰度共生矩阵特征提取与匹配主要依赖于能量、惯量、熵和相关性四个参数。Tamura 纹理特征基于人类对纹理的视觉感知心理学研究,提出6种属性,即:粗糙度、对比度、方向度、线像度、规整度和粗略度。自回归纹理模型(simultaneous auto-regressive, SAR)是马尔可夫随机场(MRF)模型的一种应用实例。

3.形状特征

3.1基本概念
各种基于形状特征的检索方法都可以比较有效地利用图像中感兴趣的目标来进行检索,但它们也有一些共同的问题,包括:①目前基于形状的检索方法还缺乏比较完善的数学模型;②如果目标有变形时检索结果往往不太可靠;③许多形状特征仅描述了目标局部的性质,要全面描述目标常对计算时间和存储量有较高的要求;④许多形状特征所反映的目标形状信息与人的直观感觉不完全一致,或者说,特征空间的相似性与人视觉系统感受到的相似性有差别。另外,从 2-D 图像中表现的 3-D 物体实际上只是物体在空间某一平面的投影,从 2-D 图像中反映出来的形状常不是 3-D 物体真实的形状,由于视点的变化,可能会产生各种失真。
3.2常用的特征提取与匹配方法
通常情况下,形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征。图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。
(1)边界特征法
该方法通过对边界特征的描述来获取图像的形状参数。其中Hough 变换检测平行直线方法和边界方向直方图方法是经典方法。Hough 变换是利用图像全局特性而将边缘像素连接起来组成区域封闭边界的一种方法,其基本思想是点—线的对偶性;边界方向直方图法首先微分图像求得图像边缘,然后,做出关于边缘大小和方向的直方图,通常的方法是构造图像灰度梯度方向矩阵。
(2)傅里叶形状描述符法
傅里叶形状描述符(Fourier shape deors)基本思想是用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题。由边界点导出三种形状表达,分别是曲率函数、质心距离、复坐标函数。
(3)几何参数法
形状的表达和匹配采用更为简单的区域特征描述方法,例如采用有关形状定量测度(如矩、面积、周长等)的形状参数法(shape factor)。在 QBIC 系统中,便是利用圆度、偏心率、主轴方向和代数不变矩等几何参数,进行基于形状特征的图像检索。需要说明的是,形状参数的提取,必须以图像处理及图像分割为前提,参数的准确性必然受到分割效果的影响,对分割效果很差的图像,形状参数甚至无法提取。
(4)形状不变矩法
利用目标所占区域的矩作为形状描述参数。

4.空间关系特征

4.1基本概念
所谓空间关系,是指图像中分割出来的多个目标之间的相互的空间位置或相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。通常空间位置信息可以分为两类:相对空间位置信息和绝对空间位置信息。前一种关系强调的是目标之间的相对情况,如上下左右关系等,后一种关系强调的是目标之间的距离大小以及方位。显而易见,由绝对空间位置可推出相对空间位置,但表达相对空间位置信息常比较简单。
空间关系特征的使用可加强对图像内容的描述区分能力,但空间关系特征常对图像或目标的旋转、反转、尺度变化等比较敏感。另外,实际应用中,仅仅利用空间信息往往是不够的,不能有效准确地表达场景信息。为了检索,除使用空间关系特征外,还需要其它特征来配合。
4.2常用的特征提取与匹配方法
提取图像空间关系特征可以有两种方法:一种方法是首先对图像进行自动分割,划分出图像中所包含的对象或颜色区域,然后根据这些区域提取图像特征,并建立索引;另一种方法则简单地将图像均匀地划分为若干规则子块,然后对每个图像子块提取特征,并建立索引。

2019-09-05 17:19:53 Wing_Ming 阅读数 201
  • OpenGL视频教程

    初级教程共11个课时,在教程中,我们将从基本的开始,你将学会如何创建窗口,然后,会学到如何创建一个三维的网格? 你会学到如何使用强大的着色器进行编程,如何创建纹理,如何使用光照, 终实现一套完整的渲染管线,得到一个猴子的模型。

    56466 人正在学习 去看看 黄棒清

深度学习在图像处理领域中的应用综述》部分概念解读:

1.特征表达/提取方法->特征学习

图像特征是指图像的原始特性或属性,可以分为视觉特征或统计特征。视觉特征主要是人的视觉直觉感受的自然特征(图像的颜色、纹理和形状);统计特征是指需要通过变换或测量才能得到的人为特征(频谱、直方图等)。

常见特征提取方法:

  • LBP算法(Local Binary Patterns):一种用来描述图像局部纹理特征的算子,具有灰度不变性。

    其主要思想是在目标像素周围定义一个3x3的窗口,以目标像素为阈值,将相邻的8个像素的灰度值与目标像素进行对比,大于目标像素标记为1,小于等于则标记为0。每个窗口都可以产生一个8位的二进制数,这样就得到了目标像素的LBP值。然后计算每个区域的直方图,然后对该直方图进行归一化处理。最后将得到的每个区域的统计直方图进行连接成为一个特征向量,也就是整幅图的LBP纹理特征向量。然后便可利用SVM或者其他机器学习算法进行分类。

  • HOG特征提取算法(Histogram of Oriented Gradient):在一幅图像中,图像的表象和形状能够被边缘或梯度的方向密度分布很好的表示,具有几何和光学不变性。

    其主要思想是将图像灰度化,采用Gamma校正法对输入图像进行颜色空间的标准化以调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;计算图像每个像素的梯度,将图像划分成小区域,统计每个区域的梯度直方图,将每几个区域组成一个批次,一个批次内所有区域的特征串联起来便得到该批次的HOG特征。将图像内的所有批次的HOG特征串联起来就可以得到该图像的HOG特征。这个就是最终的可供分类使用的特征向量了。

  • SIFT算子(Scale-invariant feature transform):通过求一幅图中的特征点及其有关尺寸和方向的描述子得到特征并进行图像特征点匹配,具有尺度不变性和旋转不变性。

    其主要思想是首先生成尺度空间->检测尺度空间极值点->去除不好的特征点->为每个关键点指定方向参数->生成关键点描述子->根据SIFT进行图像的匹配。

2.图像识别or图像取证

图像识别技术的过程分为信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。模式识别是指对表示事物或现象的不同形式的信息做分析和处理从而得到一个对事物或现象做出描述、辨认和分类等的过程,其主要分为三种:统计模式识别、句法模式识别、模糊模式识别。

图像取证不同于图像识别的地方在于识别是区分图像内容里的差异,肉眼可以察觉到,而取证则是区分图像中以微弱信号存在的操作指纹,类间形态的差异微乎其微,所以对于图像取证问题一般的深度学习模型不能胜任。图像取证的性质必然决定了网络输入的改变, 只有放大了想要提取的指纹特征,深度学习模型才能更好地充当一个特征提取和分类器。 

相关研究:https://blog.csdn.net/qq_35509823/article/details/86505661

3.Degradation退化

随着网络结构的加深,带来了两个问题:一是消失/爆炸梯度,导致了训练十分难收敛,这类问题能够通过正则化和归一化解决;另一个是被称为degradation的退化现象。对合适的深度模型继续增加层数,模型准确率会下滑,训练误差和测试误差都会很高。其实当BN出现之后,梯度消失和爆炸的问题已经基本上被解决了,但是网络层数加深之后还是会出现效果差的情况,ResNet主要解决的是网络的退化问题。

解释1:网络越深,反传回来的梯度相关性越来越差,最后接近白噪声。我们认为图像具有局部相关性,因此梯度应该也具有类似的相关性,这样的更新才有意义,如果接近白噪声,那其实就可以认为做随机扰动。自然效果就越来越差了。解释2:引入残差之后对参数的变化更加的敏感。原本的网络只是学习一个从输入到输出的映射,现在学习的是输入和输出之间的差值。解释3:现在我们要训练一个深层的网络,它可能过深,假设存在一个性能最强的完美网络N,与它相比我们的网络中必定有一些层是多余的,那么这些多余的层的训练目标是恒等变换,只有达到这个目标我们的网络性能才能跟N一样。对于这些需要实现恒等变换的多余的层,要拟合的目标就成了H(x)=x,在传统网络中,网络的输出目标是F(x)=x,这比较困难,而在残差网络中,拟合的目标成了x-x=0,网络的输出目标为F(x)=0,这比前者要容易得多。解释4:类似LSTM的思想,加入一个进位闸,让数据能够传到后面去,不至于由于网络越来越深,到了后面学习不到有效的特征了。所以加入一个快捷键,让数据一直往下传,让每一层都能读到有效的特征。

4.降维

计算机的图像识别技术是一个异常高维的识别技术。不管图像本身的分辨率如何,其产生的数据经常是多维性的,这给计算机的识别带来了非常大的困难。想让计算机具有高效地识别能力,最直接有效的方法就是降维。降维分为线性降维和非线性降维。常见的线性降维方法有主成分分析(PCA)/线性奇异分析(LDA),它们简单、易于理解。但是通过线性降维处理的是整体的数据集合,所求的是整个数据集合的最优低维投影。经过验证,这种线性的降维策略计算复杂度高而且占用相对较多的时间和空间,因此就产生了基于非线性降维的图像识别技术,它是一种极其有效的非线性特征提取方法。此技术可以发现图像的非线性结构而且可以在不破坏其本征结构的基础上对其进行降维,使计算机的图像识别在尽量低的维度上进行,这样就提高了识别速率。例如人脸图像识别系统所需的维数通常很高,其复杂度之高对计算机来说无疑是巨大的“灾难”。由于在高维度空间中人脸图像的不均匀分布,使得人类可以通过非线性降维技术来得到分布紧凑的人脸图像,从而提高人脸识别技术的高效性。

5.R-CNN

物体检测算法中常用到的几个概念:Bounding Box:bbox是包含物体的最小矩形,该物体应在最小矩形内部。物体检测中关于物体位置的信息输出是一组(x,y,w,h)数据,其中x,y代表着bbox的左上角或其他固定点,对应的w,h表示bbox的宽和高。一组(x,y,w,h)唯一确定一个定位框。Intersection over Union(IoU):对于两个区域R和R′,两个区域的重叠程度记为overlap。在训练网络的时候,我们常依据侯选区域和标定区域的IoU值来确定正负样本。非极大值抑制(Non-Maximum Suppression,NMS):就是把不是极大值的抑制掉,在物体检测上,就是对一个目标有多个标定框,使用极大值抑制算法滤掉多余的标定框。

R-CNN(即Region-CNN,是第一个成功将深度学习应用到目标检测上的算法。R-CNN基于CNN,线性回归,和SVM等算法,实现目标检测技术。物体检查系统可以大致分为四步进行:
获取输入图像->提取约2000个候选区域->将候选区域输入CNN网络(候选图片需缩放)->将CNN的输出输入SVM中进行类别的判定

6.目标检测

即找出图像中所有感兴趣的目标,确定它们的位置和大小,是机器视觉领域的核心问题之一。由于各类物体有不同的外观,形状,姿态,加上成像时光照,遮挡等因素的干扰,目标检测一直是机器视觉领域最具有挑战性的问题。目标检测要解决的核心问题是:目标可能出现在图像的任何位置,可能有各种不同的大小,可能有各种不同的形状。

计算机视觉中关于图像识别有四大类任务:
分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。
定位-Location:解决“在哪里?”的问题,即定位出这个目标的的位置。
检测-Detection:解决“是什么?在哪里?”的问题,即定位出这个目标的的位置并且知道目标物是什么。
分割-Segmentation:分为实例分割和场景分割,解决“每一个像素属于哪个目标物或场景”的问题。

7.四元数

四元数是用于表示旋转的一种方式,是简单的超复数,都是由实数加上三个虚数单位 i、j、k 组成,而且它们有如下的关系: i^2 = j^2 = k^2 = -1, i^0 = j^0 = k^0 = 1 , 每个四元数都是 1、i、j 和 k 的线性组合,即是四元数一般可表示为a + bi+ cj + dk,其中a、b、c 、d是实数。

对于i、j、k本身的几何意义可以理解为一种旋转,其中i旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,j旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,k旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转,-i、-j、-k分别代表i、j、k旋转的反向旋转。

2019-07-22 16:22:41 BOTAK_ 阅读数 20
  • OpenGL视频教程

    初级教程共11个课时,在教程中,我们将从基本的开始,你将学会如何创建窗口,然后,会学到如何创建一个三维的网格? 你会学到如何使用强大的着色器进行编程,如何创建纹理,如何使用光照, 终实现一套完整的渲染管线,得到一个猴子的模型。

    56466 人正在学习 去看看 黄棒清

数字图像处理概述

数字图像

简单而言,就是可以使用矩阵或者数组来表示。
具体而言,数字图像处理主要的内容包括:1,图像的数字化 2,图像变换 3,图像增强 4,图像分割 5,二值图像处理与分割 4,纹理分析 5,图像识别

图像数字化

图像数字化就是将一副图画转换成为计算机能够处理的过程,其包括两个过程,分别是采样量化
1,数字图像的表示:
矩阵
数字图像根据灰度级可分为黑白图像,灰度图像和彩色图像(3个矩阵 RGB)
2,图像数字化的过程

  • 采样:将空间上连续的图像变换为离散点的操作称之为采样。两个重要的参数:采样间隔和采样孔径
  • 量化:将像素灰度值转换成为离散的整数值的过程,几个概念:灰度级:一幅图像中不同灰度值的个数,用G表示。一般而言,数字图像灰度级数G为2的整数幂,即G = 2g2^g,其中g为量化bit数。若一幅图像的量化灰度级数G = 256 = 282^8,灰度值范围为0~255,常称为8bit量化。
    图像数据量:一副M*N,灰度级数为G的图像,所需要的存储空间为M * N * g(bit)
    3,采样,量化参数与数字化图像之间的关系
    数字化方式可分为均匀采样,量化与不均匀采样,量化。所谓均匀,就是等间隔采样,量化。
    在这里插入图片描述在这里插入图片描述
    4,图像灰度直方图
    5,数字图像处理算法的形式
  • 局部处理 4-邻域,8邻域
  • 点处理
  • 大局处理
  • 迭代处理
  • 跟踪处理
  • 窗口处理与模板处理
    6,图像的数据结构
    图像像素灰度值的存储方式

图像变换

傅里叶变换(空间域------>频域)
理解一些感念:频域,相域,频谱,欧拉公式,复数的几何意义(旋转),指数形式的傅里叶变换
高频信号是边缘轮廓,低频是信息主要存在之处

图像增强

图像增强的目的就是有选择的去突出某些感兴趣的信息或者去抑制一些不需要的信息。图像增强从增强的作用域来看可以分为空间域增强与频率域增强。
在这里插入图片描述

图像增强的点运算

  • 灰度变换:灰度变换可以调整图像的灰度动态范围或者说是图像的对比度。(灰度变换主要有以下几种:线性变换,分段线性变换,非线性灰度变换(对数变换,指数变换))
  • 直方图修整法:主要包括两类直方图均衡化,直方图规定化
    线性变换 线性变换
    分段线性变换
    分段线性变换(为了突出感兴趣目标所在的灰度区间,相对抑制那些不感兴趣的灰度区间,可采用分段线性变换,)

直方图均衡化在这里插入图片描述
直方图均衡化是将原图像通过某种变换,得到一幅灰度直方图为均匀分布的新图像的方法。
在某些情况下,并不一定需要具有均匀直方图的图像,有时需要具有特定的直方图的图像,以便能够增强图像中某些灰度级。直方图规定化方法就是针对上述思想提出来的。直方图规定化是使原图像灰度直方图变成规定形状的直方图而对图像作修正的增强方法。

图像的空间域平滑

任何一幅原始图像,在其获取和传输等过程中,会受到各种噪声的干扰,使图像恶化,质量下降,图像模糊,特征淹没,对图像分析不利。为了抑制噪声改善图像质量所进行的处理称图像平滑或去噪。它可以在空间域和频率域中进行。

  • 局部平滑法
  • 超限像素平滑法
  • 灰度最近邻的K个临点平滑法
  • 最大均匀性平滑法
  • 有选择保边缘平滑法
  • 空间低通滤波法
  • 中值滤波

图像空间域锐化

在图像的识别中常需要突出边缘和轮廓信息。图像锐化就是增强图像的边缘或轮廓。
在这里插入图片描述

  • 梯度锐化法
  • Laplacian增强算子
  • 高通滤波法:高通滤波法就是用高通滤波算子和图像卷积来增强边缘

图像的频率域增强

假定原图像为f(x,y),经傅立叶变换为F(u,v)。频率域增强就是选择合适的滤波器H(u,v)对F(u,v)的频谱成分进行处理,然后经逆傅立叶变换得到增强的图像g(x,y)。频率域增强的一般过程如下:
在这里插入图片描述

频率域平滑
  • 理想低通滤波器
  • Butterworth低通滤波器
  • 指数低通滤波器
  • 梯形低通滤波器
频率域锐化
  • 理想高通滤波器
  • 巴特沃斯高通滤波器
  • 指数滤波器
  • 梯形滤波器

彩色增强技术

图像复原与重建

图像退化

图像压缩

图像分割

二值图像处理

纹理分析

模板匹配

没有更多推荐了,返回首页