精华内容
下载资源
问答
  • 高中地理第一章区域地理环境与人类活动第一节区域的基本含义区域的主要特征同步练习湘教版必修320180827349
  • 图像区域特征

    千次阅读 2017-08-23 15:38:33
    以 Halcon 里支持的 Region 特征为基础,做概念总结形状特征

    以 Halcon 里支持的 Region 特征为基础,做概念总结


    形状特征

    1)圆度(Circularity)
    衡量一个形状接近圆的程度,取值为 [0, 1]

    Circularity=π2

    另一种算法是,统计边界点到中心的距离,根据方差反映圆度

    Halcon 对应上面两种思路有相应的算子:circularity、roundness

    2)紧密度(Compactness)
    参考 wikipedia,衡量一个形状紧致程度,取值为 [0, 1],对于圆,紧密度为 1

    Compactness=A22πi21+i22

    其中 A 为形状面积,i1 i2 为二阶矩: i1=IJi2image(i,j) i2=IJj2image(i,j)

    关于紧密度的一个比喻:用不同长度的绳子围成一个面积一定的区域,使用的绳子长度越短则紧密度越高。
               又由于圆的边缘没有转角,很光滑,因此紧密度又称为粗糙度

    Halcon 对应的算子为 compactness

    3)矩形度(Rectangularity)
    参考《图像处理基本算法 形状特征》,衡量一个形状接近矩形的程度,取值为 [0, 1]

    Rectangularity=AEr

    其中 A 为形状面积,Er为最小外接矩阵面积

    Halcon 对应算子为 rectangularity

    4)凸性(Convexity)
    参考文献【1】(顺便推荐作者关于凸性的研究主页),凸性的计算有很多种方法。这里介绍两种,第二种(Halcon用的这种)更为常见

    定义1:对于二维形状 S ,在上面随机选择AB两个点,统计线段 [AB] 上落在 S 内的点的个数

    定义2:对于二维形状S,令 CH(S) 为其最小外接凸形

    Convexity=Area(S)Area(CH(S))

    图1是 CH(S) 的一个示例

                     这里写图片描述
                          图1. 二维形状的外接凸形

    Halcon使用算子 convexity 计算凸率;使用 shape_trans 转换区域为凸包/最小外接圆/外接矩形

    5)偏心率(Eccentricity)
    参考章毓晋的《图像工程》,介绍一种平移、旋转和尺度不变的算法

    令三维形状的每个点坐标为 (xi,yi,zi) ,每个点的质量(图像可以理解为灰度值) mi ,有

    Eccentricity=pq=2[(A+B)(AB)2+4H2]2[(A+B)+(AB)2+4H2]

    其中 A=mi(y2i+z2i) B=mi(z2i+x2i) H=mixiyi

    Halcon 里是用其等效椭圆的长半轴除以短半轴计算的:eccentricity

    6)蓬松度(Bulkiness)
    参考Halcon13的文档,感觉跟紧密度相反,圆为1,越松散值越大

    Bulkiness=πRaRbA

    其中
    Ra=8(M20+M02+(M20M02)2+4M211)2Rb=8(M20+M02(M20M02)2+4M211)2

    其中 Mij 是二阶不变矩

    Halcon13文档里有以上特征的描述及图例


    区域特征

    1)区域面积
    就是像素点相加
    但区域一般是用形成编码表示,累加每行的行程就可以

    2)区域中心
    中心点 y=yi x=xi

    3)区域几何矩
    几何矩具有旋转、尺度不变性,应用在形状分类

    mp,q=ypxq

    =m0,0=y0x0
    =(m1,0,m0,1)=(1y1x0,1y0x1)
    =np,q=1ypxq
    =μp,q=1(yn1,0)p,(xn0,1)q

    4)等效椭圆
    区域的方向和范围可以用等效椭圆来表示
    等效椭圆的中心与区域中心一致,长半轴 r1 、短半轴 r2 和相对于x轴的夹角 θ 由二阶矩算出

    r1=2(μ2,0+μ0,2+(μ2,0μ0,2)2+4μ21,1)

    r2=2(μ2,0+μ0,2(μ2,0μ0,2)2+4μ21,1)

    θ=12arctan2μ1,1μ0,2μ2,0

    Halcon里对应的算子为 elliptic_axis()


    【1】J. Zunic, P.L. Rosin, “A New Convexity Measure for Polygons”, IEEE Transactions Pattern Analysis and Machine Intelligence, vol. 26, no. 7, pp. 923-934, 2004.


    展开全文
  • 基于多视点视图深度特征,提出一种通过简单块匹配运算划分多视点视图区域并估计区域视差的算法。首先基于深度对象的概念确定图像中具有不同深度的区域数量以及这些区域对应的区域视差,再根据误差最小化准则初步确定每...
  • 对此,文中通过引入直方图子区间对应区域的边缘复杂度概念,提出了一种描述图像特征区域边缘直方图方法.文章首先定义了区域边缘复杂度的概念,并提出以直方图各子区间的边缘复杂度作为空间权系数对各子区间进行加权,...
  • 1专题11区域定位与区域地理特征分析1.区域含义。2.不同区域自然环境、人类活动的差异。3.不同发展阶段地理环境对人类生产和生活方式的影响。4.根据区域图判断区域的空间位置。结合区域图,综合分析区域
  • 区域可持续发展是可持续发展在时间、空间和构成要素上的含义的具体化。信息特征分类是区域可持续发展研究的基础内容之一。区域可持续发展的信息特征具有时空性和复杂性的特点。在总结前人区域可持续发展相关研究的...
  • 概念描述: GLSZM与GLRLM(gray-level run-length matrix)类似,GLRLM是在一维方向上记录连续jjj个像素值iii连续相邻的情况的出现的次数,GLSZM是在二维区域内记录图像区域内有jjj个iii元素...

    纹理特征三:GLSZM–灰度区域大小矩阵

    1. GLSZM 的解释与计算

    GLSZM,全称gray-level size zone matrix,中文名称弧度区域大小矩阵。
    概念描述: GLSZM与GLRLM(gray-level run-length matrix)类似,GLRLM是在一维方向上记录连续 j j j个像素值 i i i

    展开全文
  • 图像特征概念

    万次阅读 2014-05-12 10:47:58
    (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等...
    

    http://blog.csdn.net/wishchin/article/details/14043715

    有少量修改,如有疑问,请问原作者!

    常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 

    一 :颜色特征 

    (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。

            注:对于 pose的估计,颜色直方图可以作为超像素基元的统计特征,在每一个小块内保持不变性;

    (二)常用的特征提取与匹配方法 

    (1) 颜色直方图 

            其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。 

             最常用的颜色空间:RGB颜色空间、HSV颜色空间。 

             颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。 

    (2) 颜色集 (如 HSV 空间

            颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从 RGB颜色空间转化成视觉均衡的颜色空间(如 HSV 空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系 

    (3) 颜色矩 (颜色分布

            这种方法的数学基础在于:图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(mean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。 

    (4) 颜色聚合向量 

            其核心思想是:将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。 

    (5) 颜色相关图 


    二 :纹理特征 

    (一)特点:纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是,纹理特征也有其缺点,一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实的纹理。 

            例如,水中的倒影,光滑的金属面互相反射造成的影响等都会导致纹理的变化。由于这些不是物体本身的特性,因而将纹理信息应用于检索时,有时这些虚假的纹理会对检索造成“误导”。 注:引入纹理语义分层分析;

            在检索具有粗细、疏密等方面较大差别的纹理图像时,利用纹理特征是一种有效的方法。但当纹理之间的粗细、疏密等易于分辨的信息之间相差不大的时候,通常的纹理特征很难准确地反映出人的视觉感觉不同的纹理之间的差别。 


    (二)常用的特征提取与匹配方法 


      纹理特征描述方法分类 :

    (1)统计方法:
             统计方法的典型代表是一种称为灰度共生矩阵GLCM的纹理特征分析方法Gotlieb 和 Kreyszig 等人在研究共生矩阵中各种统计特征基础上,通过实验,得出灰度共生矩阵的四个关键特征:能量、惯量、熵和相关性。统计方法中另一种典型方法,则是从图像的自相关函数(即图像的能量谱函数)提取纹理特征,即通过对图像的能量谱函数的计算,提取纹理的粗细度及方向性等特征参数 


    (2)几何方法:
             所谓几何法,是建立在纹理基元(基本的纹理元素)理论基础上的一种纹理特征分析方法。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元以一定的有规律的形式重复排列构成。
            在几何法中,比较有影响的算法有两种:Voronio 棋盘格特征法和结构法。 


    (3)模型   法
            模型法以图像的构造模型为基础,采用模型的参数作为纹理特征。典型的方法是随机场CRF模型法,如马尔可夫(Markov)随机场(MRF)模型法和 Gibbs 随机场模型法。

    (4)信号处理法

            纹理特征的提取与匹配主要有:灰度共生矩阵、Tamura 纹理特征、自回归纹理模型、小波变换等。
            灰度共生矩阵特征提取与匹配主要依赖于能量、惯量、熵相关性四个参数。Tamura 纹理特征基于人类对纹理的视觉感知心理学研究,提出6种属性,即:粗糙度、对比度、方向度、线像度、规整度和粗略度。自回归纹理模型(simultaneous auto-regressive, SAR)是马尔可夫随机场(MRF)模型的一种应用实例。 


    三 :形状特征 


    (一)特点:各种基于形状特征的检索方法都可以比较有效地利用图像中感兴趣的目标来进行检索,但它们也有一些共同的问题,包括:①目前基于形状的检索方法还缺乏比较完善的数学模型
               ②如果目标有变形时检索结果往往不太可靠;
               ③许多形状特征仅描述了目标局部的性质,要全面描述目标常对计算时间和存储量有较高的要求;
               ④许多形状特征所反映的目标形状信息与人的直观感觉不完全一致,或者说,特征空间的相似性与人视觉系统感受到的相似性有差别。
               另外,从 2-D 图像中表现的 3-D 物体实际上只是物体在空间某一平面的投影,从 2-D 图像中反映出来的形状常不是 3-D 物体真实的形状,由于视点的变化,可能会产生各种失真。 注:对于pose的估计可以用基于形状的3维图像,摆脱视点影响,产生类似于VFH的特征;


    (二)常用的特征提取与匹配方法 

    Ⅰ.几种典型的形状特征描述方法 

            通常情况下,形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征。图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。 

    几种典型的形状特征描述方法: 

    (1)边界特征法: 
             该方法通过对边界特征的描述来获取图像的形状参数。其中Hough 变换检测平行直线方法和边界方向直方图方法是经典方法。Hough 变换是利用图像全局特性而将边缘像素连接起来组成区域封闭边界的一种方法,其基本思想是点—线的对偶性;边界方向直方图法首先微分图像求得图像边缘,然后,做出关于边缘大小和方向的直方图,通常的方法是构造图像灰度梯度方向矩阵。 


    (2)傅里叶形状描述符法:
             傅里叶形状描述符(Fourier shape deors)基本思想是用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题。
             由边界点导出三种形状表达,分别是曲率函数质心距离复坐标函数。 

    (3)几何参数法:
             形状的表达和匹配采用更为简单的区域特征描述方法,例如采用有关形状定量测度(如矩、面积、周长等)的形状参数法(shape factor)。在 QBIC 系统中,便是利用圆度、偏心率、主轴方向和代数不变矩等几何参数,进行基于形状特征的图像检索。
            需要说明的是,形状参数的提取,必须以图像处理及图像分割为前提,参数的准确性必然受到分割效果的影响,对分割效果很差的图像,形状参数甚至无法提取。 

    (4)形状不变矩法:
             利用目标所占区域的矩作为形状描述参数。 

    (5)其它方法
            近年来,在形状的表示和匹配方面的工作还包括有限元法(Finite Element Method 或 FEM)、旋转函数(Turning )和小波描述符(Wavelet Deor)等方法。 

    Ⅱ 基于小波和相对矩的形状特征提取与匹配 

            该方法先用小波变换模极大值得到多尺度边缘图像,然后计算每一尺度的 7个不变矩(注:参考小波矩在图像识别中的应用研究),再转化为 10 个相对矩,将所有尺度上的相对矩作为图像特征向量,从而统一了区域和封闭、不封闭结构。 

    四 :空间关系特征 

    (一)特点:所谓空间关系,是指图像中分割出来的多个目标之间的相互 的空间位置或 相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。通常空间位置信息可以分为两类:相对空间位置信息和绝对空间位置信息。前一种关系强调的是目标之间的相对情况,如上下左右关系等,后一种关系强调的是目标之间的距离大小以及方位。显而易见,由绝对空间位置可推出相对空间位置,但表达相对空间位置信息常比较简单。 

            空间关系特征的使用可加强对图像内容的描述区分能力,但空间关系特征常对图像或目标的旋转、反转、尺度变化等比较敏感。另外,实际应用中,仅仅利用空间信息往往是不够的,不能有效准确地表达场景信息。为了检索,除使用空间关系特征外,还需要其它特征来配合。 

    (二)常用的特征提取与匹配方法 

            提取图像空间关系特征可以有两种方法:一种方法是首先对图像进行自动分割,划分出图像中所包含的对象或颜色区域,然后根据这些区域提取图像特征,并建立索引;另一种方法则简单地将图像均匀地划分为若干规则子块,然后对每个图像子块提取特征,并建立索引。 
         


    姿态估计问题:
     

            姿态估计问题
    就是:确定某一三维目标物体的方位指向问题。姿态估计在机器人视觉、动作跟踪和单照相机定标等很多领域都有应用。 


            在不同领域用于姿态估计的传感器是不一样的,在这里主要讲基于视觉的姿态估计。
            基于视觉的姿态估计根据使用的摄像机数目又可分为单目视觉姿态估计和多目视觉姿态估计。根据算法的不同又可分为基于模型的姿态估计基于学习的姿态估计。 

    一:基于模型的姿态估计方法 

            基于模型的方法通常利用物体的几何关系或者物体的特征点来估计。其基本思想是利用某种几何模型或结构来表示物体的结构和形状,并通过提取某些物体特征,在模型和图像之间建立起对应关系,然后通过几何或者其它方法实现物体空间姿态的估计。这里所使用的模型既可能是简单的几何形体,如平面、圆柱,也可能是某种几何结构,也可能是通过激光扫描或其它方法获得的三维模型。 

            基于模型的姿态估计方法是通过比对真实图像和合成图像,进行相似度计算更新物体姿态。目前基于模型的方法为了避免在全局状态空间中进行优化搜索,一般都将优化问题先降解成多个局部特征的匹配问题,非常依赖于局部特征的准确检测。当噪声较大无法提取准确的局部特征的时候,该方法的鲁棒性受到很大影响。 

    二:基于学习的姿态估计方法 

            基于学习的方法借助于机器学习(machine learning)方法,从事先获取的不同姿态下的训练样本中学习二维观测与三维姿态之间的对应关系,并将学习得到的决策规则或回归函数应用于样本,所得结果作为对样本的姿态估计。基于学习的方法一般采用全局观测特征,不需检测或识别物体的局部特征,具有较好的鲁棒性。其缺点是由于无法获取在高维空间中进行连续估计所需要的密集采样,因此无法保证姿态估计的精度与连续性。 

            基于学习的姿态估计方法源于姿态识别方法的思想。姿态识别需要预先定义多个姿态类别,每个类别包含了一定的姿态范围;然后为每个姿态类别标注若干训练样本,通过模式分类的方法训练姿态分类器以实现姿态识别。 

            这一类方法并不需要对物体进行建模,一般通过图像的全局特征进行匹配分析,可以有效的避免局部特征方法在复杂姿态和遮挡关系情况下出现的特征匹配歧义性问题。然而姿态识别方法只能将姿态划分到事先定义的几个姿态类别中,并不能对姿态进行连续的精确的估计。 

            基于学习的方法一般采用全局观测特征,可以保证算法具有较好的鲁棒性。然而这一类方法的姿态估计精度很大程度依赖于训练的充分程度。要想比较精确地得到二维观测与三维姿态之间的对应关系,就必须获取足够密集的样本来学习决策规则和回归函数。而一般来说所需要样本的数量是随状态空间的维度指数级增加的,对于高维状态空间,事实上不可能获取进行精确估计所需要的密集采样。因此,无法得到密集采样而难以保证估计的精度与连续性,是基于学习的姿态估计方法无法克服的根本困难。 

            和姿态识别等典型的模式分类问题不同的是,姿态估计输出的是一个高维的姿态向量,而不是某个类别的类标。因此这一类方法需要学习的是一个从高维观测向量到高维姿态向量的映射,目前这在机器学习领域中还是一个非常困难的问题。 





    特征提取:

            特征是描述模式的最佳方式,且我们通常认为特征的各个维度能够从不同的角度描述模式,在理想情况下,维度之间是互补完备的。

            特征提取的主要目的是降维。特征抽取的主要思想是将原始样本投影到一个低维特征空间,得到最能反应样本本质或进行样本区分的低维样本特征。 (注:特征的提取希望能得到从样本分布到特征分布的hash映射,并能尽量减少冲突,从高维度到低纬度的映射,这个过程的建立需要最优化的指导

            一般图像特征可以分为四类:直观性特征、灰度统计特征、变换系数特征与代数特征。 

            直观性特征主要指几何特征,几何特征比较稳定,受人脸的姿态变化与光照条件等因素的影响小,但不易抽取,而且测量精度不高,与图像处理技术密切相关。 

            代数特征是基于统计学习方法抽取的特征。代数特征具有较高的识别精度,代数特征抽取方法又可以分为两类:一种是线性投影特征抽取方法;另外一种是非线性特征抽取方法。 

            习惯上,将基于主分量分析和Fisher线性鉴别分析所获得的特征抽取方法,统称为线性投影分析。 

            线性投影分析的特征抽取方法,其基本思想是根据一定的性能目标来寻找一线性变换,把原始信号数据压缩到一个低维子空间,使数据在子空间中的分布更加紧凑,为数据的更好描述提供手段,同时计算的复杂度得到大大降低。在线性投影分析中,以主分量分析(PCA,或称K-L变换)和Fisher线性鉴别分析(LDA)最具代表性,围绕这两种方法所形成的特征抽取算法,已成为模式识别领域中最为经典和广泛使用的方法。 

            线性投影分析法的主要缺点为:需要对大量的已有样本进行学习,且对定位、光照与物体非线性形变敏感,因而采集条件对识别性能影响较大。 


            非线性特征抽取方法也是研究的热点之一。“核技巧”最早应用在SVM中,KPCA和KFA是“核技巧”的推广应用。
            核投影方法的基本思想是将原样本空间中的样本通过某种形式(这个某种要靠自己找了...)的非线性映射,变换到一个高维甚至无穷维的空间,并借助于核技巧在新的空间中应用线性的分析方法求解。由于新空间中的线性方向也对应原样本空间的非线性方向,所以基于核的投影分析得出的投影方向也对应原样本空间的非线性方向。 

            核投影方法也有一些弱点:几何意义不明确,无法知道样本在非显式映射后变成了什么分布模式;核函数中参数的选取没有相应选择标准,大多数只能采取经验参数选取;不适合训练样本很多的情况,原因是经过核映射后,样本的维数等于训练样本的个数,如果训练样本数目很大,核映射后的向量维数将会很高,并将遇到计算量上的难题。 

             就应用领域来说,KPCA远没有PCA应用的广泛。如果作为一般性的降维KPCA确实比PCA效果好,特别是特征空间不是一般的欧式空间的时候更为明显。但PCA可以通过大量的自然图片学习一个子空间,但是KPCA做不到。 

            变换系数特征指先对图像进行Fourier变换、小波变换等,得到的系数后作为特征进行识别。

    展开全文
  • 四种比较简单的图像显著性区域特征提取方法原理实现-----> AC/HC/LC/FT。 laviewpbt 2014.8.4 编辑 Email:laviewpbt@sina.com QQ:33184777    最近闲来蛋痛,看了一些显著性检测的文章,只是...
     
    


    laviewpbt  2014.8.4 编辑

    Email:laviewpbt@sina.com   QQ:33184777

     

      最近闲来蛋痛,看了一些显著性检测的文章,只是简单的看看,并没有深入的研究,以下将研究的一些收获和经验共享。

         先从最简单的最容易实现的算法说起吧:

      1、 LC算法

      参考论文:Visual Attention Detection in Video Sequences Using Spatiotemporal Cues。 Yun Zhai and Mubarak Shah.  Page 4-5。 

         算法原理部分见论文的第四第五页。

          When viewers watch a video sequence, they are attracted not only by the interesting events, but also sometimes by the interesting objects in still images. This is referred as the spatial attention. Based on the psychological studies, human perception system is sensitive to the contrast of visual signals, such as color, intensity and texture. Taking this as the underlying assumption, we propose an e±cient method for computing the spatial saliency maps using the color statistics of images. The algorithm is designed with a linear computational complexity with respect to the number of image pixels. The saliency map of an image is built upon the color contrast between image pixels. The saliency value of a pixel Ik in an image I is defined as,

              

         where the value of Ii is in the range of [0; 255], and || * ||represent the color distance metric。

         要实现这个算法,只要有这个公式(7)就完全足够了。就是每个像素的显著性值是其和图像中其他的所有像素的某个距离的总和,这个距离一般使用欧式距离。

         如果采用直接的公式定义,则算法的时间复杂度很高,这个的优化不用想就知道是直方图,我都懒得说了。

         注意这篇文章采用的一个像素的灰度值来作为显著性计算的依据。这样图像最多的像素值只有256种了。

         该算法的代码在HC对应的文章的附带代码里有,我这里贴出我自己的实现:

    复制代码
    extern void Normalize(float *DistMap, unsigned char *SaliencyMap, int Width, int Height, int Stride, int Method = 0);
    
    /// <summary>
    /// 实现功能: 基于SPATIAL ATTENTION MODEL的图像显著性检测
    ///    参考论文: Visual Attention Detection in Video Sequences Using Spatiotemporal Cues。 Yun Zhai and Mubarak Shah.  Page 4-5。
    ///    整理时间: 2014.8.2
    /// </summary>
    /// <param name="Src">需要进行检测的图像数据,只支持24位图像。</param>
    /// <param name="SaliencyMap">输出的显著性图像,也是24位的。</param>
    /// <param name="Width">输入的彩色数据的对应的灰度数据。</param>
    /// <param name="Height">输入图像数据的高度。</param>
    /// <param name="Stride">图像的扫描行大小。</param>
    /// <remarks> 基于像素灰度值进行的统计。</remarks>
    
    void __stdcall SalientRegionDetectionBasedonLC(unsigned char *Src, unsigned char *SaliencyMap, int Width, int Height, int Stride)
    {
        int X, Y, Index, CurIndex ,Value;
        unsigned char *Gray = (unsigned char*)malloc(Width * Height);
        int *Dist = (int *)malloc(256 * sizeof(int));
        int *HistGram = (int *)malloc(256 * sizeof(int));
        float *DistMap = (float *) malloc(Height * Width * sizeof(float));
    
        memset(HistGram, 0, 256 * sizeof(int));
    
        for (Y = 0; Y < Height; Y++)
        {
            Index = Y * Stride;
            CurIndex = Y * Width;
            for (X = 0; X < Width; X++)
            {
                Value = (Src[Index] + Src[Index + 1] * 2 + Src[Index + 2]) / 4;        //    保留灰度值,以便不需要重复计算
                HistGram[Value] ++;
                Gray[CurIndex] = Value;
                Index += 3;
                CurIndex ++;
            }
        }
    
        for (Y = 0; Y < 256; Y++)
        {
            Value = 0;
            for (X = 0; X < 256; X++) 
                Value += abs(Y - X) * HistGram[X];                //    论文公式(9),灰度的距离只有绝对值,这里其实可以优化速度,但计算量不大,没必要了
            Dist[Y] = Value;
        }
        
        for (Y = 0; Y < Height; Y++)
        {
            CurIndex = Y * Width;
            for (X = 0; X < Width; X++)
            {
                DistMap[CurIndex] = Dist[Gray[CurIndex]];        //    计算全图每个像素的显著性
                CurIndex ++;
            }
        }
    
        Normalize(DistMap, SaliencyMap, Width, Height, Stride);    //    归一化图像数据
    
        free(Gray);
        free(Dist);
        free(HistGram);
        free(DistMap);
    }
    复制代码

     

      算法效果:

             

             

      这篇论文并没有提到是否在LAB空间进行处理,有兴趣的朋友也可以试试LAB的效果。

      2、HC算法

       参考论文: 2011 CVPR Global Contrast based salient region detection Ming-Ming Cheng

      这篇论文有相关代码可以直接下载的,不过需要向作者索取解压密码 ,有pudn账号的朋友可以直接在pudn上下载,不过那个下载的代码是用 opencv的低版本写的,下载后需要自己配置后才能运行,并且似乎只有前一半能运行(显著性检测部分)。

          论文提出了HC和RC两种显著性检测的算法,我这里只实现了HC。

          在本质上,HC和上面的LC没有区别,但是HC考虑了彩色信息,而不是像LC那样只用像素的灰度信息,由于彩色图像最多有256*256*256种颜色,因此直接基于直方图技术的方案不太可行了。但是实际上一幅彩色图像并不会用到那么多种颜色,因此,作者提出了降低颜色数量的方案,将RGB各分量分别映射成12等份,则隐射后的图最多只有12*12*12种颜色,这样就可以构造一个较小的直方图用来加速,但是由于过渡量化会对结果带来一定的瑕疵。因此作者又用了一个平滑的过程。 最后和LC不同的是,作者的处理时在Lab空间进行的,而由于Lab空间和RGB并不是完全对应的,其量化过程还是在RGB空间完成的。

         我们简单看看这个量化过程,对于一幅彩色图像,减少其RGB各分量的值,可以用Photoshop的色调分离功能直接看到其结果,如下所示:    

          

        原图:共有64330种颜色                    色调分离                    结果图:共有1143种颜色

      (上图由于保存为JPG格式了,你们下载分析后实际颜色的数量肯定会有所不同了)。

      对于上面的图,似乎觉得量化后区别不是特别大,但是我们在看一个例子:

        

                   原图:172373种颜色                              结果图:共有1143种颜色

          这种转换后的区别就比较大了,这就是作者说的瑕疵。

          在作者的附带代码中,有这个算法的实现,我只随便看了下,觉得写的比较复杂, 于是我自己构思了自己的想法。

          可以肯定的一点就是,为了加快处理速度必须降低图像的彩色信息量,但是我得控制这个降低的程度,那么我想到了我最那首的一些东西:图像的位深处理。在我的Imageshop中,可以将24位真彩色图像用尽量少的视觉损失降低为8位的索引图像。因此,我的思路就是这样,但是不用降低位深而已。

          那么这个处理的第一步就是找到彩色图像的中最具有代表性的颜色值,这个过程可以用8叉树实现,或者用高4位等方式获取。 第二,就是在量化的过程中必须采用相关的抖动技术,比如ordered dither或者FloydSteinberg error diffuse等。更进一步,可以超越8位索引的概念,可以实现诸如大于256的调色板,1024或者4096都是可以的,但是这将稍微加大计算量以及编码的复杂度。我就采用256种颜色的方式。量化的结果如下图:

      

            原图:172373种颜色                                  结果图:共有256种颜色

      可以看到256种颜色的效果比上面的色调分离的1143种颜色的视觉效果还要好很多的。

         从速度角度考虑,用8叉树得到调色板是个比较耗时的过程,一种处理方式就是从原图的小图中获取,一半来说256*256大小的小图获取的调色板和原图相比基本没有啥区别,不过这个获取小图的插值方式最好是使用最近邻插值:第一:速度快;第二:不会产生新的颜色。

         最后,毕竟处理时还是有视觉损失和瑕疵,在我的算法最后也是对显著性图进行了半径为1左右的高斯模糊的。

         贴出部分代码:

    复制代码
    /// <summary>
    /// 实现功能: 基于全局对比度的图像显著性检测
    ///    参考论文: 2011 CVPR Global Contrast based salient region detection  Ming-Ming Cheng
    ///               http://mmcheng.net/salobj/
    ///    整理时间: 2014.8.3
    /// </summary>
    /// <param name="Src">需要进行检测的图像数据,只支持24位图像。</param>
    /// <param name="SaliencyMap">输出的显著性图像,也是24位的。</param>
    /// <param name="Width">输入的彩色数据的对应的灰度数据。</param>
    /// <param name="Height">输入图像数据的高度。</param>
    /// <param name="Stride">图像的扫描行大小。</param>
    ///    <remarks> 在Lab空间进行的处理,使用了整形的LAB转换,采用抖动技术将图像颜色总数量降低为256种,在利用直方图计算出显著性查找表,最后采用高斯模糊降低量化后的颗粒感。</remarks>
    
    void __stdcall SalientRegionDetectionBasedonHC(unsigned char *Src, unsigned char *SaliencyMap, int Width, int Height, int Stride)
    {
        int X, Y, XX, YY, Index, Fast, CurIndex;
        int FitX, FitY, FitWidth, FitHeight;
        float Value;
        unsigned char *Lab = (unsigned char *) malloc(Height * Stride);
        unsigned char *Mask = (unsigned char *) malloc(Height * Width);
        float *DistMap = (float *) malloc(Height * Width * sizeof(float));
        float *Dist = (float *)malloc(256 * sizeof(float));
        int *HistGram = (int *)malloc(256 * sizeof(int));
    
        GetBestFitInfoEx(Width, Height, 256, 256, FitX, FitY, FitWidth, FitHeight);
        unsigned char *Sample = (unsigned char *) malloc(FitWidth * FitHeight * 3);
    
        InitRGBLAB();
        for (Y = 0; Y < Height; Y++)
            RGBToLAB(Src + Y * Stride, Lab + Y * Stride, Width);
    
        Resample (Lab, Width, Height, Stride, Sample, FitWidth, FitHeight, FitWidth * 3, 0);    //    最近邻插值
    
        RGBQUAD *Palette = ( RGBQUAD *)malloc( 256 * sizeof(RGBQUAD));
        
        GetOptimalPalette(Sample, FitWidth, FitHeight, FitWidth * 3, 256, Palette);
    
        ErrorDiffusionFloydSteinberg(Lab, Mask, Width, Height, Stride, Palette, true);            //    先把图像信息量化到较少的范围内,这里量化到256种彩色
    
        memset(HistGram, 0, 256 * sizeof(int));
    
        for (Y = 0; Y < Height; Y++)
        {
            CurIndex = Y * Width;
            for (X = 0; X < Width; X++)
            {
                HistGram[Mask[CurIndex]] ++;
                CurIndex ++;
            }
        }
    
        for (Y = 0; Y < 256; Y++)                                // 采用类似LC的方式进行显著性计算
        {
            Value = 0;
            for (X = 0; X < 256; X++) 
                Value += sqrt((Palette[Y].rgbBlue - Palette[X].rgbBlue)*(Palette[Y].rgbBlue - Palette[X].rgbBlue) + (Palette[Y].rgbGreen- Palette[X].rgbGreen)*(Palette[Y].rgbGreen - Palette[X].rgbGreen) + (Palette[Y].rgbRed- Palette[X].rgbRed)*(Palette[Y].rgbRed - Palette[X].rgbRed)+ 0.0 )  * HistGram[X];
            Dist[Y] = Value;
        }
    
        for (Y = 0; Y < Height; Y++)
        {
            CurIndex = Y * Width;
            for (X = 0; X < Width; X++)
            {
                DistMap[CurIndex] = Dist[Mask[CurIndex]];
                CurIndex ++;
            }
        }
    
        Normalize(DistMap, SaliencyMap, Width, Height, Stride);                //    归一化图像数据
    
        GuassBlur(SaliencyMap, Width, Height, Stride, 1);                    //    最后做个模糊以消除分层的现象
        
        free(Dist);
        free(HistGram);
        free(Lab);
        free(Palette);
        free(Mask);
        free(DistMap);
        free(Sample);
        FreeRGBLAB();
    }
    复制代码

      上述方式比直接的Bruce-force的实现方式快了NNNN倍,比原作者的代码也快一些。并且效果基本没有啥区别。

       

              原图                HC结果,用时20ms            直接实现:150000ms              原作者的效果

          

      我做的HC和原作者的结果有所区别,我没仔细看代码,初步怀疑是不是LAB空间的处理不同造成的,也有可能是最后的浮点数量化到[0,255]算法不同造成的。

      三:AC算法

        参考论文:Salient Region Detection and Segmentation Radhakrishna Achanta, Francisco Estrada, Patricia Wils, and Sabine SÄusstrunk 2008 , Page 4-5

      这篇论文提出的算法的思想用其论文的一句话表达就是:

             saliency is determined as the local contrast of an image region with respect to its neighborhood at various scales.

     具体实现上,用这个公式表示:

                

      以及:

          

      其实很简单,就是用多个尺度的模糊图的显著性相加来获得最终的显著性。关于这个算法的理论分析,FT算法那个论文里有这样一段话:

         Objects that are smaller than a filter size are detected ompletely, while objects larger than a filter size are only artially detected (closer to edges). Smaller objects that are well detected by the smallest filter are detected by all three filters, while larger objects are only detected by the larger filters. Since the final saliency map is an average of the three feature maps (corresponding to detections of he three filters), small objects will almost always be better highlighted.

        这个算法编码上也非常简单:

    复制代码
    /// <summary>
    /// 实现功能: saliency is determined as the local contrast of an image region with respect to its neighborhood at various scales
    /// 参考论文: Salient Region Detection and Segmentation   Radhakrishna Achanta, Francisco Estrada, Patricia Wils, and Sabine SÄusstrunk   2008  , Page 4-5
    ///    整理时间: 2014.8.2
    /// </summary>
    /// <param name="Src">需要进行检测的图像数据,只支持24位图像。</param>
    /// <param name="SaliencyMap">输出的显著性图像,也是24位的。</param>
    /// <param name="Width">输入的彩色数据的对应的灰度数据。</param>
    /// <param name="Height">输入图像数据的高度。</param>
    /// <param name="Stride">图像的扫描行大小。</param>
    /// <param name="R1">inner region's radius R1。</param>
    /// <param name="MinR2">outer regions's min radius。</param>
    /// <param name="MaxR2">outer regions's max radius。</param>
    /// <param name="Scale">outer regions's scales。</param>
    ///    <remarks> 通过不同尺度局部对比度叠加得到像素显著性。</remarks>
    
    void __stdcall SalientRegionDetectionBasedonAC(unsigned char *Src, unsigned char *SaliencyMap, int Width, int Height, int Stride, int R1, int MinR2, int MaxR2, int Scale)
    {
        int X, Y, Z, Index, CurIndex;
        unsigned char *MeanR1 =(unsigned char *)malloc( Height * Stride);
        unsigned char *MeanR2 =(unsigned char *)malloc( Height * Stride);
        unsigned char *Lab = (unsigned char *) malloc(Height * Stride);
        float *DistMap = (float *)malloc(Height * Width * sizeof(float));
    
        InitRGBLAB();    
        for (Y = 0; Y < Height; Y++) 
            RGBToLAB(Src + Y * Stride, Lab + Y * Stride, Width);                    //    注意也是在Lab空间进行的
    
        memcpy(MeanR1, Lab, Height * Stride);
        if (R1 > 0)                                                                    //    如果R1==0,则表示就取原始像素
            BoxBlur(MeanR1, Width, Height, Stride, R1);
    
        memset(DistMap, 0, Height * Width * sizeof(float));
    
        for (Z = 0; Z < Scale; Z++)
        {
            memcpy(MeanR2, Lab, Height * Stride);
            BoxBlur(MeanR2, Width, Height, Stride, (MaxR2 - MinR2) * Z / (Scale - 1) + MinR2);
            for (Y = 0; Y < Height; Y++) 
            {
                Index = Y * Stride;
                CurIndex = Y * Width;
                for (X = 0; X < Width; X++)                    //    计算全图每个像素的显著性
                {
                    DistMap[CurIndex] += sqrt( (MeanR2[Index] - MeanR1[Index]) * (MeanR2[Index] - MeanR1[Index]) + (MeanR2[Index + 1] - MeanR1[Index + 1]) * (MeanR2[Index + 1] - MeanR1[Index + 1]) + (MeanR2[Index + 2] - MeanR1[Index + 2]) * (MeanR2[Index + 2] - MeanR1[Index + 2]) + 0.0) ;
                    CurIndex++;
                    Index += 3;
                }
            }
        }
        
        Normalize(DistMap, SaliencyMap, Width, Height, Stride, 0);        //    归一化图像数据
    
        free(MeanR1);
        free(MeanR2);
        free(DistMap);
        free(Lab);
        FreeRGBLAB();
    }
    复制代码

      核心就是一个 boxblur,注意他也是在LAB空间做的处理。

       

                       

                       

     以上检测均是在R1 =0 , MinR2 = Min(Width,Height) / 8 . MaxR2 = Min(Width,Height) / 2, Scale = 3的结果。

    4、FT算法

      参考论文: Frequency-tuned Salient Region Detection, Radhakrishna Achantay, Page 4-5, 2009 CVPR 

      这篇论文对显著性检测提出了以下5个指标:

               1、 Emphasize the largest salient objects.

              2、Uniformly highlight whole salient regions.

              3、Establish well-defined boundaries of salient objects.

              4、Disregard high frequencies arising from texture, noise  and blocking artifacts.

              5、Efficiently output full resolution saliency maps.

        而起最后提出的显著性检测的计算方式也很简答 :

                      

           where I is the mean image feature vector, I!hc (x; y) is the corresponding image pixel vector value in the Gaussian blurred version (using a 55 separable binomial kernel) of the original image, and || *|| is the L2 norm. 

      这个公式和上面的五点式如何对应的,论文里讲的蛮清楚,我就是觉得那个为什么第一项要用平局值其实直观的理解就是当高斯模糊的半径为无限大时,就相当于求一幅图像的平均值了。

         这篇论文作者提供了M代码和VC的代码,但是M代码实际上和VC的代码是不是对应的, M代码是有错误的,他求平均值的对象不对。

         我试着用我优化的整形的LAB空间来实现这个代码,结果和原作者的效果有些图有较大的区别,最后我还是采用了作者的代码里提供的浮点版本的RGBTOLAB。

         相关参考代码如下:

    复制代码
    /// <summary>
    /// 实现功能: 基于Frequency-tuned 的图像显著性检测
    ///    参考论文: Frequency-tuned Salient Region Detection, Radhakrishna Achantay, Page 4-5, 2009 CVPR 
    ///               http://ivrgwww.epfl.ch/supplementary_material/RK_CVPR09/
    ///    整理时间: 2014.8.2
    /// </summary>
    /// <param name="Src">需要进行检测的图像数据,只支持24位图像。</param>
    /// <param name="SaliencyMap">输出的显著性图像,也是24位的。</param>
    /// <param name="Width">输入的彩色数据的对应的灰度数据。</param>
    /// <param name="Height">输入图像数据的高度。</param>
    /// <param name="Stride">图像的扫描行大小。</param>
    ///    <remarks> 在Lab空间进行的处理,但是不能用库中的整形RGBLAB颜色函数,必须用原始的浮点数处理。不然很多结果不明显,原因未知。</remarks>
    
    void __stdcall SalientRegionDetectionBasedOnFT(unsigned char *Src, unsigned char *SaliencyMap, int Width, int Height, int Stride)
    {
        int X, Y, XX, YY, Index, Fast, CurIndex, SrcB, SrcG, SrcR, DstB, DstG, DstR;
        float *Lab = (float *) malloc(Height * Stride * sizeof(float));
        float *DistMap = (float *) malloc(Height * Width * sizeof(float));
        float MeanL = 0, MeanA = 0, MeanB = 0;
        
        for (Y = 0; Y < Height; Y++) 
            RGBToLABF(Src + Y * Stride, Lab + Y * Stride, Width);                //    浮点类型的数据转换
        
        for (Y = 0; Y < Height; Y++) 
        {
            Index = Y * Stride;
            for (X = 0; X < Width; X++)
            {
                MeanL +=  Lab[Index];
                MeanA +=  Lab[Index + 1];
                MeanB +=  Lab[Index + 2];
                Index += 3;
            }
        }
        MeanL /= (Width * Height);                                            //    求LAB空间的平均值
        MeanA /= (Width * Height);
        MeanB /= (Width * Height);
    
        GuassBlurF(Lab, Width, Height, Stride, 1);                            //    use Gaussian blur to eliminate fine texture details as well as noise and coding artifacts
    
        for (Y = 0; Y < Height; Y++)                                        //    网站的matlab代码的blur部分代码不对
        {
            Index = Y * Stride;
            CurIndex = Y * Width;
            for (X = 0; X < Width; X++)                                        //    计算像素的显著性
            {
                DistMap[CurIndex++] = (MeanL - Lab[Index]) *  (MeanL - Lab[Index]) +  (MeanA - Lab[Index + 1]) *  (MeanA - Lab[Index + 1]) +  (MeanB - Lab[Index + 2]) *  (MeanB - Lab[Index + 2])   ;
                Index += 3;
            }
        }
        
        Normalize(DistMap, SaliencyMap, Width, Height, Stride);                //    归一化图像数据
    
        free(Lab);
        free(DistMap);
    
    }
    复制代码

        检测效果如下图:

       

       

     五、四种算法的综合比较

      通过一些试验图像,我到时觉得4种算法,FT的效果最为明显,举例如下:

         

               原图                         FT(50ms)                        AC(25ms)

          

             LC(2ms)                        AC(23ms)   

      只有FT检测出了那个叶。

         

              原图                                  FT                                 AC 

      

              LC                             AC

     六、下一步工作

      这里我研究的几种显著性分析都是很简单很基础的算法,实现起来也比较方便,现在还有很多效果显著但是算法比较复杂的论文,等有空或者有能力的是在去看看他们。在这显著性分析只是很多其他处理的第一步,有了这个基础,我也想看看后续的分割或者再感知缩放方面的应用吧。

      http://files.cnblogs.com/Imageshop/salientregiondetection.rar

      做了一个测试集。

     

    ****************************作者: laviewpbt   时间: 2014.8.4    联系QQ:  33184777 转载请保留本行信息**********************

    展开全文
  • 图像特征概念、什么是图像特征

    万次阅读 2016-07-26 16:01:48
    有少量修改,如有疑问,请问原作者! 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。...一 :颜色特征  ...一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有
  • 之前写的都是有关于ROI的区域提取,但是对于提取到的区域我们需要提取它的特征,才可以在后期的特征匹配中排上用场。 这篇文章主要记录我是如何对指静脉图片做二值纹理特征提取的 原理: 一种比较特征提取简单的...
  • 特征提取相关概念

    2014-05-13 11:59:38
     特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者...
  • 转载,原链接(建议在原链接查看) 矩阵是个非常抽象的数学概念,很多人到了这里往往望而生畏。...矩阵的特征方程式是: A * x = lamda * x 这个方程可以看出什么?上次我们提到矩阵实际可以看...
  • 机器视觉学习(一):特征提取基本概念总结一、特征提取概念二、特征概述1.边缘2.角3.区域4.脊三、常用图像特征概述1.颜色特征2.纹理特征3.形状特征4.空间关系特征 一、特征提取概念 特征提取是计算机视觉和...
  • 矩阵特征值和特征向量物理含义

    千次阅读 2017-01-09 10:55:55
    最近在做聚类的时候用到了主成分分析PCA技术,里面涉及一些关于矩阵特征值和特征向量的内容,在网上找到一篇对特征向量及其物理意义说明较好的文章,整理下来,分享一下。   一、矩阵基础[1]: 矩阵是一个...
  • 四种简单的图像显著性区域特征提取方法-----> AC/HC/LC/FT。 分类: 图像处理 2014-08-03 12:40 4088人阅读 评论(4) 收藏 举报 salient region detec显著性检测 laviewpbt 2014.8.3 编辑 Email:laviewpbt@sina.com...
  • 1. 池化层的概念 2. 池化层的特征
  • SIFT特征提取分析

    万次阅读 多人点赞 2012-06-06 22:06:09
    SIFT(Scale-invariant feature transform)是一种检测局部特征的算法,该算法通过求一幅图中的特征点(interest points,or corner points)及其有关scale 和 orientation 的描述子得到特征并进行图像特征点匹配,...
  • 提出了钻孔应变数据特征分析参量"应变比速率"的概念,用于量化分析区域应力的演变趋势。研究表明,矿山开采中的冲击地压孕育、诱发过程伴随着区域应力场的调整,且钻孔应变实测数据验证了传统采动影响范围以外更大区域...
  • 关于图像特征提取

    万次阅读 多人点赞 2010-01-17 19:30:00
     特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者...
  • 特征检测和特征提取算子

    千次阅读 2019-08-27 11:29:08
    特征检测是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征特征检测的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者...
  • 图像处理 形状特征相关概念

    千次阅读 2017-07-10 16:50:25
     链码:描述各边界点像素的坐标。...描述曲线方向的链码法用曲线的起始点的坐标和斜率来表示直线。...区域边界轮廓可理解为相邻边界像素之间的单元连线逐段相连而成。...多边形主要特征参数:顶
  • java虚拟机栈和程序计数器一样,他是线程私有的内存区域,他的生命周期与线程相同,java虚拟机栈描述的是java方法执行时候的内存概念模型,每个方法在执行的时候都会创建一个栈帧,用来创建这个方法的操作数栈,局部...
  • 特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者...
  • 为实现煤矿工作面矿压规律的精准分析,提出了工作面区域矿压分析理论,明确了工作面矿压分析的区域概念、区域矿压显现特征参数区域划分流程,从而提出了基于支架工作阻力大数据的工作面区域矿压分析技术。...
  • 协同软件的概念特征

    千次阅读 2005-12-10 18:52:00
    清楚了协同软件的概念,以及协同与ERP、CRM、OA的关系、区别后,我们再来归纳协同软件的特征。 从应用上来看,协同软件呈现出以下三大特征。 以互联网为基础 协同软件综合了Internet的技术,强调的是跨区域、跨组织...
  • 图像特征提取(纹理特征

    万次阅读 多人点赞 2016-10-28 16:28:41
    纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同...
  • 图像特征提取总结

    万次阅读 多人点赞 2018-10-06 17:36:09
     特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 103,607
精华内容 41,442
关键字:

区域的概念及特征