2012-12-09 15:25:30 love_xunmeng 阅读数 2592
  • OpenGL ES2.0 中级篇

    巩固OpenGL ES2.0,增加了场景控制,shader光照计算,光照的多种模型,shader雾化计算 shader法线贴图的计算,shader Cartoon效果实现,以及Spline,曲线的实现,应用中实现路径动画。

    16584 人正在学习 去看看 张立铜

前面写了两篇关于光照规整的的博客,估计大家都用得熟悉不行,再不给点干活,估计大伙都要扔砖头了。好吧,下面来介绍Gradientfaces。百度一下“Gradientfaces”和“梯度脸”,发现没什么介绍,希望大家喜欢。Gradientfaces出自《Face Recognition Under Varying Illumination Using Gradientfaces》这篇论文,09年发表在TIP上,其中一个作者是IEEE Fellow。哈哈哈哈,标题党了吧!

论文稍后会放到csdn的资源上供下载。


Gradientfaces的假设是:

I(x,y) = R(x,y)L(x,y); I(x,y)是图像的像素值,R(x,y)是改点的反射率,L(x,y)是改点的光照部分。

又一个假设:

L(x,y)变化缓慢,或者说是平滑的。

基于上面两个假设,可以推导得出:


这是Gradientfaces的理论依据。即可以认为图像的Gradient Map(梯度图)是图像的本质,不随光照的变化而变化。


未完待续。。。

2017-03-16 13:56:00 tinyzhao 阅读数 6025
  • OpenGL ES2.0 中级篇

    巩固OpenGL ES2.0,增加了场景控制,shader光照计算,光照的多种模型,shader雾化计算 shader法线贴图的计算,shader Cartoon效果实现,以及Spline,曲线的实现,应用中实现路径动画。

    16584 人正在学习 去看看 张立铜

最近用到球谐函数(Spherical Harmonics),这是一种非常优雅的光照模型。

关于球谐函数,具体的数学推导可以在维基百科上查到:

https://en.wikipedia.org/wiki/Spherical_harmonics

我主要介绍一下球谐函数在光照估计中的应用。

球谐函数

光照估计就是从图片中获取光照信息,从而降低光照对纹理的影响。传统的光照估计依赖于光源方向和法线方向的估计,而光源方向和法线方向都是一种“估计”,本身就是不够精确的。使用不够精确的参数去估计目标值,就需要使用到一些高级的估计算法,这些算法一般都依赖于对象的统计特征。这样的光照模型过于复杂,其中的每一个过程都会影响最终的结果。

在2001年,Basri和Jacobs证明了曲面上的像素值可以使用9维的球谐基函数进行线性表示,这种光照模型只需要估计球谐基函数前面的权值,不需要光源的方向,大大简化了光照的估计。点p处的像素值等于p处的albedo乘以球谐基函数的线性组合,用数学公式表示一下就是:

I(p)=j=19ρ(p)ljhj(p)

ρ(p)表示p处的albedo,lj表示球谐基函数的系数,hj表示9个球谐基函数。使用nx,ny,nz表示法线方向,这9个基分别为:

h1=14π,h2=34πnz,h3=34πnx

h4=14πny,h5=1254π(3n2z1),h6=3512πnxnz

h7=3512πnynz,h8=32512π(n2xn2y),h9=3512πnxny

从式子中可以看到球谐函数基还是依赖于法线的方向的。Albedo的原意是反照率,我们可以看成是去除光照和阴影以后的纹理,在游戏图形工程上,更接近于基色的概念。

光照估计

对于一个有n个像素值的图片,n个像素对应着n个线性方程组,光照的估计就变成了n个方程求解n+9个未知数的问题,n+9表示n个albedo值和9个光照系数。一般的方法是使用最小二乘法进行估计。

  • 初始化albedo估计

    albedo的初始值ρ0可以使用图片像素平均值来估计。

  • 初始化光照参数

    有了ρ0,就可以带入到I=ρ0HL中,使用最小二乘法获得初始的光照系数L0

  • 更新albedo

    使用上一步中得到的L值,可以根据式子I=ρHL0直接解得新的ρ

  • 更新光照系数

    再次使用最小二乘法估计光照系数L。重复估计albedo和L,直到满足要求,一般5次就足够了。

总结

球谐函数对光照的建模非常的简洁,整张图片使用相同的光照系数,免去了对光源参数的估计。模型比较简单,求解的步骤也比较简洁,使用最小二乘法不断迭代求解。

2019-08-15 16:29:21 hyk_1996 阅读数 3335
  • OpenGL ES2.0 中级篇

    巩固OpenGL ES2.0,增加了场景控制,shader光照计算,光照的多种模型,shader雾化计算 shader法线贴图的计算,shader Cartoon效果实现,以及Spline,曲线的实现,应用中实现路径动画。

    16584 人正在学习 去看看 张立铜

之前在做光照对于高层视觉任务的影响的相关工作,看了不少基于深度学习的低光照增强(low-light enhancement)的文章[3,4,5,7,8,9,10],于是决定简单梳理一下。

光照估计(illumination estimation)和低光照增强(low-light enhancement)的区别:光照估计是一个专门的底层视觉任务(例如[1,2,6]),它的输出结果可以被用到其它任务中,例如图像增强、图像恢复(处理色差,白平衡)。而低光照增强是针对照明不足的图像存在的低亮度低对比度噪声、伪影等问题进行处理,提升视觉质量。值得一提的是,低光照增强方法有两种常见的模式,一种是直接end-to-end训练,另一种则包含了光照估计。

 

LLNet: A deep autoencoder approach to natural low-light image enhancement

2017 Pattern Recognition

这篇文章应该是比较早的用深度学习方法完成低光照增强任务的文章,它证明了基于合成数据训练的堆叠稀疏去噪自编码器能够对的低光照有噪声图像进行增强和去噪。模型训练基于图像块(patch),采用sparsity regularized reconstruction loss作为损失函数。

主要贡献如下:

(1)我们提出了一种训练数据生成方法(即伽马校正和添加高斯噪声)来模拟低光环境。

(2)探索了两种类型的网络结构:(a) LLNet,同时学习对比度增强和去噪;(b) S-LLNet,使用两个模块分阶段执行对比度增强和去噪。

(3)在真实拍摄到的低光照图像上进行了实验,证明了用合成数据训练的模型的有效性。

(4)可视化了网络权值,提供了关于学习到的特征的insights。

 

MSR-net:Low-light Image Enhancement Using Deep Convolutional Network

2017 arXiv

这篇文章引入了CNN,它提了一个有趣的观点,传统的multi-scale Retinex(MSR)方法可以看作是有着不同高斯卷积核的前馈卷积神经网络,并进行了详细论证。

接着,仿照MSR的流程,他们提出了MSR-net,直接学习暗图像到亮图像的端到端映射。MSR-net包括三个模块:多尺度对数变换->卷积差分->颜色恢复,上面的结构图画得非常清楚了。

训练数据采用的是用PS调整过的高质量图像和对应的合成低光照图像(随机减少亮度、对比度,伽马校正)。损失函数为带正则项的误差矩阵的F-范数平方,即误差平方和。

 

Learning a Deep Single Image Contrast Enhancer from Multi-Exposure Images

2018 TIP

这篇文章其实主要关注单图像对比度增强(SICE),针对的是欠曝光和过曝光情形下的低对比度问题。其主要贡献如下:

(1)构建了一个多曝光图像数据集,包括了不同曝光度的低对比度图像以及对应的高质量参考图像。

(2)提出了一个两阶段的增强模型,如上图所示。第一阶段先用加权最小二乘(WLE)滤波方法将原图像分解为低频成分和高频成分,然后对两种成分分别进行增强;第二阶段对增强后的低频和高频成分融合,然后再次增强,输出结果。

对于为什么要设计两阶段结构,文章中是这样解释的:单阶段CNN的增强结果并不令人满意,且存在色偏现象,这可能是因为单阶段CNN难以平衡图像的平滑成分与纹理成分的增强效果。

值得一提的是,模型第一阶段的Decomposition步骤采用的是传统方法,而后面介绍的Retinex-Net使用CNN实现了。

 

Deep Retinex Decomposition for Low-Light Enhancement

2018 BMVC

这篇文章是我前后读过许多遍,比较值得介绍。受Retinex理论的启发,它采用了两阶段式的先分解后增强的步骤,完全采用CNN实现。对于Decom-Net的训练,引入了反射图一致性约束(consistency of reflectance)和光照图平滑性约束(smoothness of illumination),非常容易复现,实验效果也不错。

主要贡献如下:

(1)构建了paired的低光照/正常光照数据集LOL dataset,应该也是第一个在真实场景下采集的paired dataset.该数据集分为两部分:真实场景的图像数据是通过改变相机感光度和曝光时间得到的;合成的图像数据是用Adobe Lightroom接口调节得到的,并且调节后图像的Y通道直方图必须尽可能地接近真实低光照场景。

(2)提出了Retinex-Net,它分为两个子网络:Decom-Net能够对图像进行解耦,得到光照图和反射图;Enhance-Net对前面得到的光照图进行增强,增强后的光照图和原来的反射图相乘就得到了增强结果。另外,考虑到噪声问题,采用一种联合去噪和增强的策略,去噪方法采用BM3D。

(3)提出一个structure-aware total variation constraint,就是用反射图梯度作为权值对TV loss进行加权,从而在保证平滑约束的同时不破坏纹理细节和边界信息。

 

MBLLEN: Low-light Image/Video Enhancement Using CNNs

2018 BMVC

这篇文章的核心思想是,网络中不同层次的特征的提取和融合。此外,该文的另一个亮点是针对视频的低光照增强网络,和一帧一帧处理的直接做法不同,它们使用3D卷积对网络进行了改进,有效提升了性能。

补充说明一下,视频的低光照增强会存在的一种负面情况,闪烁(flickering),即帧与帧之间可能存在不符合预期的亮度跳变。这一问题可以用AB(avr)指标(即平均亮度方差)来度量。

网络结构:包括特征提取模块FEM、增强模块EM和融合模块FM。FEM是有10层卷积的单流向网络,每层的输出都会被输入到各个EM子模块中分别提取层次特征。最终这些层次特征被拼接到一起并通过1x1卷积融合得到最终结果。为了用于视频增强,还需要对网络进行修改,具体可参考原文。

损失函数:本文不采用常规的MSE或者MAE损失,而是提了一个新的损失函数,包括三个部分,即结构损失、内容损失和区域损失。结构损失采用SSIM和MS-SSIM度量相结合的形式;内容损失,就是VGG提取的特征应该尽可能相似;区域损失令网络更关注于图像中低光照的区域。

 

Learning to See in the Dark

2018 CVPR

传统成像系统的pipeline
提出的新成像系统

这篇文章主要关注于极端低光条件和短时间曝光条件下的图像成像系统,它用卷积神经网络去完成Raw图像到RGB图像的处理,实验效果非常惊艳。

网络结构基于全卷积网络FCN,直接通过端到端训练,损失函数采用L1 loss。此外,文章提出了See-in-the-Dark数据集,由短曝光图像及对应的长曝光参考图像组成。

 

Kindling the Darkness: A Practical Low-light Image Enhancer

2019 arXiv

这篇文章在今年5月份挂到了arXiv上,干货挺多,据称是state-of-the-art。它提出了低光照增强任务存在的三个难点:

(1) 如何有效的从单张图像中估计出光照图成分,并且可以灵活调整光照level?

(2) 在提升图像亮度后,如何移除诸如噪声和颜色失真之类的退化?

(3) 在没有ground-truth的情况下,样本数目有限的情况下,如何训练模型?

这篇文章的增强思路还是沿用了Retinex-Net的decomposition->enhance的两阶段方式,网络总共分为三个模块:Decomposition-Net、Restoration-Net和Adjustment-Net,分别执行图像分解、反射图恢复、光照图调整。一些创新点如下:

(a)对于Decomposition-Net,其损失函数除了沿用Retinex-Net的重构损失和反射图一致损失外,针对光照图的区域平滑性和相互一致性,还增加了两个新的损失函数。

(b)对于Restoration-Net,考虑到了低光照情况下反射图往往存在着退化效应,因此使用了良好光照情况下的反射图作为参考。反射图中的退化效应的分布很复杂,高度依赖于光照分布,因此引入光照图信息。

(c)对于Adjustment-Net,实现了一个能够连续调节光照强度的机制(将增强比率作为特征图和光照图合并后作为输入)。通过和伽马校正进行对比,证明它们的调节方法更符合实际情况。

 

参考文献

[1] Shi, W., Loy, C. C., & Tang, X. (2016). Deep Specialized Network for Illuminant Estimation. ECCV9908, 371–387. https://doi.org/10.1007/978-3-319-46493-0

[2] Guo, X., Li, Y., & Ling, H. (2017). LIME: Low-light image enhancement via illumination map estimation. IEEE Transactions on Image Processing26(2), 982–993. https://doi.org/10.1109/TIP.2016.2639450

[3] Lore, K. G., Akintayo, A., & Sarkar, S. (2017). LLNet: A deep autoencoder approach to natural low-light image enhancement. Pattern Recognition61, 650–662. https://doi.org/10.1016/j.patcog.2016.06.008

[4] Shen, L., Yue, Z., Feng, F., Chen, Q., Liu, S., & Ma, J. (2017). MSR-net:Low-light Image Enhancement Using Deep Convolutional Network. ArXiv. Retrieved from http://arxiv.org/abs/1711.02488

[5] Cai, J., Gu, S., & Zhang, L. (2018). Learning a Deep Single Image Contrast Enhancer from Multi-Exposure Images. IEEE Transactions on Image Processing1(c), 1–14. Retrieved from http://www4.comp.polyu.edu.hk/~cslzhang/paper/SICE.pdf

[6] Gao, Y., Hu, H. M., Li, B., & Guo, Q. (2018). Naturalness preserved nonuniform illumination estimation for image enhancement based on retinex. IEEE Transactions on Multimedia20(2), 335–344. https://doi.org/10.1109/TMM.2017.2740025

[7] Chen, C., Chen, Q., Xu, J., & Koltun, V. (2018). Learning to See in the Dark. CVPR, 3291–3300. https://doi.org/10.1109/CVPR.2018.00347

[8] Lv, F., Lu, F., Wu, J., & Lim, C. (2018). MBLLEN: Low-light Image/Video Enhancement Using CNNs. BMVC, 1–13.

[9] Wei, C., Wang, W., Yang, W., & Liu, J. (2018). Deep Retinex Decomposition for Low-Light Enhancement. BMVC, (61772043). Retrieved from http://arxiv.org/abs/1808.04560

[10] Zhang, Y., Zhang, J., & Guo, X. (2019). Kindling the Darkness: A Practical Low-light Image Enhancer. ArXiv, 1–13. Retrieved from http://arxiv.org/abs/1905.04161

 

2019-06-06 13:10:11 weixin_43172215 阅读数 45
  • OpenGL ES2.0 中级篇

    巩固OpenGL ES2.0,增加了场景控制,shader光照计算,光照的多种模型,shader雾化计算 shader法线贴图的计算,shader Cartoon效果实现,以及Spline,曲线的实现,应用中实现路径动画。

    16584 人正在学习 去看看 张立铜

确定图像旋转角度

图像旋转

图像剪切

图像的光照不均匀校正

由于在实验数据获取的时候不可避免的会有光照不均匀的情况出现,所以在对图像进
行预处理的时候,很重要的一个环节就是对图像中的不均匀亮度进行校正。首先对原始图像f(x,Y)的背景亮度做粗略的估计,将原始图像f(x,Y)分成大小为32x32的不重叠的方块,取子块中的最小值作为图像背景的照度,形成一个粗略估计的背景图像,将此背景图像扩展成和原图像f(x,y)大小相同的矩阵g(x,Y),使用三次插值函数对矩阵g(x,y)中的数据进行平滑,然后从原始图像f(x,Y)中减去经过数据平滑后的矩阵g(x,y,),即:q(x,y)=f(x,y) -g(x,y),通过对比可以看出处理后的结果中背景亮度分布均匀,工件纹理与背景之间的对比更加明显,纹理清晰易于辨别处理。

图像增强

图像增强(image enhancement)技术是不考虑图像降质的原因,只将图像中感兴趣的
特征有选择的突出,而衰减其不需要的特征,所以改善后的图像不一定要去逼近原图像。比如突出目标轮廓,去除各类噪声等等。从图像质量评价观点来看,图像增强的主要目的是提高图像的可懂度,更有利于人的视觉感知。

图像增强技术有两类方法:空间域法(Spatial Domain)和频率域法(Frequence
Domain)。

频率域法

就是在图像的某种变换域内,对图像的变换值进行运算,如先对图像进行傅立叶变换,再对图像的频域进行滤波处理,最后将滤波处理后的图像变换值反变换到空间域,从而获得增强后的图像。这是一种间接处理方法,其原理过程如图3.3所示。
图像增强 图像增强

空间域法

空间域法主要在空间域内对像素灰度值直接运算处理,如图像的灰度变换、直
方图修正、图像空域平滑和锐化处理等。

灰度修正

灰度修正是对图像在空间域进行增强的简单而效果明显的方法。根据图像不同降质现
象以及所需要的不同图像特征,可采用不同的修正方法。常用的方法主要有两种:
(1)针对图像某一部分或整幅图像曝光不足而使用的灰度级变换,其目的是增加图
像的对比度。
(2)直方图修正,能够使图像具有所需要的灰度分布,从而有选择的突出所需要的
图像特征,来满足人们的需要。

a.灰度变换

工件图像的对比度常常不理想,这是由于图像所包含的灰度范围较窄或像素的灰度分
布的非线性造成的。灰度变换就是利用点运算来修改图像像素的灰度,用来增强原图的各部分的反差,用于改善对比度。点运算是按逐个像元把一幅输入图像的亮度值f(x,Y)的动态范围,按函数映射或变换成输出图像g(x,y),使其动态范围扩展至指定范围或整个范围,可表示为:g(x,y)=@(x,y)
g(x,y)上每一点像素与f(x,y)上的像素对应相同的坐标位置。算子@有 线性,分段线性
和非线性等几种形式。本文所用到的是分段线性变换,如图3-4所示。(没图)

b.直方图修正

l、直方图概念
输入图像中某一灰度的像素数目ni所占总像素数目N的份额,p称为该灰度像素在该图像中出现的概率密度,它随灰度交换的函数称为输入图像的概率密度函数:p=ni/N (i=0,1⋯,L-1)其中L为灰度级总数目。
直方图变换是以概率理论为基础演绎出来的对灰度进行变换的又一种对比度增强技
术。为了改善一些目标的对比度,可修改各部分的灰度的比例关系,即可通过改造直方图的办法来实现。特别是把原图像直方图两端加以扩展,而中间峰值区域加以压缩,使得输出图像的概率密度见(蜀)所构成的整个直方图呈现均衡分布,如图3-6所示,则输出图像的清晰度会明显提高。
工件图像的直方图均衡化
对工件图像进行直方图均衡化,
(具体公式要再看)

图像平滑

图像平滑(Smoothing)的主要目的是减少噪声。工件图像在拍摄以及传输的过程中,
一定会受到噪声的干扰,另外,工件表面的一些毛刺以及粘在工件表面的细小切屑在图像中都会以噪声的形式出现,所以需要对工件图像进行消除噪声的处理。
a,均值滤波 b.中值滤波

中值滤波,高斯滤波(要再看下)

图像分割(特征提取??)

图像分割(Image Segmentation)是把图像分割成若干个特定的、具有独特性质的区
域并提取出感兴趣目标的技术和过程。在对图像的研究和应用中,人们往往仅对图像的某些部分感兴趣(目标或背景),它们一般对应图像中特定的、具有独特性质的区域。为了
分析和识别目标,需要将它们分割并提取出来
图像分割的基本概念是将图像中有意义的特征或者需要应用的特征提取出来。这些特
征可以是图像场的原始特征,如物体占有区的像素灰度值、物体轮廓曲线和纹理特征等;也可以是空间频谱,或直方图特征等。

图像分割是由图像处理转到图像分析的关键阶段。一方面,它是目标图像表达的基础,
对特征测量有重要的影响。另一方面,图像分割和分割的目标表达、特征提取和参数测量等将原始图像转化为数学表达式,使得利用计算机进行图像分析和理解成为可能。
例如有把分割算法分成三类的,①边缘检测②阈值分割和③区域生长。但事实上阈值分割的方法在本质上也是一种区域提取方法,所以③实际上包含了①。另外也有把分割算法分成六部分讨论的①阈值分割②像素分类③深度图像分割④彩色图像分割⑤边缘检测和⑥基于模糊集的方法。从算法的角度来看,各部分内容是有重叠的。

a.边缘检测的梯度算法

l、梯度边缘检测算法基本步骤
梯度边缘检测算法有以下四个步骤:
(1)滤波:边缘检测算法主要是基于图像强度的一阶和二阶导数,但导数的计算对噪声敏感,因此必须使用滤波器来改善与噪声有关的边缘检测器的性能。需要指出,大多数滤波器在降低噪声的同时也导致了边缘强度的损失,因此,增强边缘和降低噪声之间需要折中。
(2)增强:增强边缘的基础是确定图像各点领域强度的变化值。增强算法可以将领域(或局部)强度值有显著变化的点突显出来。边缘增强一般是通过计算梯度来完成的。
(3)检测:在图像中有许多点的梯度幅值比较大,而这些点在特定的应用领域中并不都是边缘,所以应该用某种方法来确定哪些点是边缘点。最简单的边缘检测判据是梯度幅值阈值判断。
(4)定位:如果某一应用场合要求确定边缘位置,则边缘检测的位置可在子像素分辨率上来估计,边缘的方位也可以被估计出来。
在边缘检测算法中,前三个步骤用的十分普遍。这是因为大多数场合下,仅仅需要边
缘检测器指出边缘出现在图像某一像素点的附近,而没有必要指出边缘的精确位置或方
向。

b 灰度阈值分割

只用一个阈值分割称为单阈值分割方法,如果用多个阈值分割称为多阈值分割方法
可将取阈值分割方法分为如下三类:
(1)基于各像素值得阈值阈值仅根据f(x,Y)来选取,所得到的阈值仅与全图各
像素的本身性质(像素值)有关。
(2)基于区域性质的阈值阈值是根据f(x,Y)和p(x,Y)来选取的,所得的阈值与
区域性质(区域内各像素的值,相邻像素值的关系等)有关。
(3)基于坐标位置的阈值阈值进一步(除根据f(x,y)和p(x,y)来选取外)还与x,Y
有关,即阈值要考虑位置(x,Y)来确定,则所得的闽值是与像素空间坐标有关的。确定第一类阈值的技术有时称为点相关技术,而确定第二类阈值的技术有时称为区域相关技术,确定第三类阈值的技术有时称为动态阈值技术。前两类也有称为全局闽值的,第三类也有叫局部阈值的。在一定意义上可以认为局部阈值化是全局阈值化技术的局部化特征。

全局阈值

l、极小值点阈值
将图像的灰度直方图的包络看作一条曲线,则选取直方图的谷可借助求曲线极小值的
方法。设用^(z)代表直方图,那么极小值点应同时满足:一阶导数=0,二阶导数>0
2、最优阈值
有时图像中目标和背景的灰度值有部分交错,这时如用一个全局阈值进行分割则总会
产生一定的误差。实际中常希望能尽可能减小误分割的概率,而选取最优阈值是一种常用的方法。设有这样一幅混有加性高斯噪声的图像,背景和目标的概率密度分别是n(z)和
见(z),整幅图像的混合概率密度:(2007年论文里找,没网弄不上图)
其中H和鲍分别是背景和目标区域的平均灰度值,q和吼分别是关于均值的均方差,丑
和昱分别是背景和目标区域灰度值的先验概率。根据概率定义有号+最=1,所以混合概
率密度式(3.29)中有5个未知的参数。如果能求得这些参数就可以确定混合概率密度。

动态阈值

当图像中有如下一些情况:有阴影、光照不均匀、各处的对比度不同、突发噪声、背
景灰度变化等等,如果只用一个固定的全局阈值对整幅图像进行分割,则由于不能兼顾图
像各处的情况而使分割效果受到影响。有一种解决办法是用与坐标相关的一组阈值来对图
像各部分分别进行分割。这种与坐标相关的阈值也叫动态阈值,这种取阈值的分割方法也
叫变化阈值法【31】。
l、阈值插值
具体步骤如下:
(1)将整幅图像分成一系列互相之间有50%重叠的子图像;
(2)做出每个子图像的直方图;
(3)检测各个子图像的直方图是否为双峰,如果是就进行阈值选取,否则不处理;
(4)根据对直方图为双峰的子图像得到的阈值,通过插值得到所有的子图像的阈值:
(5)根据各子图像的阂值,再通过插值得到所有像素的阂值,然后对图像进行分割。
2、水线阈值算法
水线(也称为分水岭或流域,Watershed)阈值算法和直接在最佳阈值处分割不同,它是一种特殊的白适应迭代阈值分割算法。实际中水线算法首先用一个比较高但得到的结构仍能把每个目标孤立开的阈值进行分割。然后,当阈值逐渐减小并且逼近最佳阈值时,不再合并原已分开的目标。这样就可以解决采用全局阈值方法在目标很接近时造成的目标合并问题。

总结

本章对常用的图像预处理算法进行了研究、分析和比较,从理论基础和实验分析两方
面对工件图像的几何变换、图像增强、边缘检测、图像分割等问题进行了阐述,并且找出了适用于工件图像的预处理算法,为后续章节的图像特征提取奠定了基础。本章的主要工作如下:
(1)由于诸多原因造成实验所得到的工件图像只有中间区域可用,所以介绍了工件图像的剪切方法,并简要介绍了工件图像光照不均匀校正的有效方法。
(2)在图像增强方法中,主要包括灰度修正(改善对比度)和图像平滑(消噪)两方面,通过对工件图像进行具体算法处理,比较之后得到了适用于工件图像增强的最佳办法。在实际应用中,我们选用灰度变换的方法来改善工件图像的对比度,选用中值滤波的方法对工件图像进行消噪。
(3)在图像分割方法中,简要地介绍了图像分割方法的基本概念,并对工件图像进行了边缘检测和灰度闽值分割算法的处理,结果比较之后发现在进行边缘检测时,Canny算子的检测结果最好,它能把比较细节的边缘检测出来,另外在对工件图像进行阈值分割时,最佳的方法为全局阈值法。

纹理分析的基本方法介绍

信号处理的角度 空域分析+时域分析
模式识别的角度 统计聚类√+文法推理
纹理算法 统计分析√+结构分析

像素空间投影统计分析法

适用性:针对纹理比较单一,方向性比较强的纹理
方法:1,强化边缘;2.提取单一行/列像素信息(归一化;2维->1维);3累计面积计算

灰度共生矩阵法

灰度共生矩阵是一幅图像的二次统计
将二阶直方图的频率表示改算成频数表示,然后将其表示成矩阵形式,这个矩阵就被称为灰度共生矩阵。这个矩阵是这样定义的:对于取定的方向Q和距离d,在方向为Q的直线上,一个像素灰度为i,另一个与其相距为d的像素的灰度为j的点对出现的频数作为这个矩阵的第(i,j)阵元的值,灰度共生矩阵的元素p(i,j| d,Q)描述在Q方向上,相隔d个像素距离的一对像素分别具有灰度层i和j的出现概率(频数)。
越均匀,频数越大,灰度共生矩阵法正是建立在估计图像的二阶组合条件概率密度函数基础上的一种重要的纹理分析方法。该方法是纹理分析的重要方法之一,它能够较精确地反映纹理粗糙程度和重复方向。
选不同方向的,就是不同角度的灰度共生矩阵,主对角线上元素很大
沿纹理方向的共生矩阵中,主对角线元素值很大,而其他元素的值全为零,这正说明了沿纹理方向上没有灰度变化。可见,大的主对角线元素提供了识别纹理方向的可能性。

元素值的离散性

灰度共生矩阵中元素值相对于主对角线的分布可用离散性来表示,它常常反映纹理的
粗细程度。离主对角线远的元素的归一化值高,即元素值的离散性大,也就是说,一定位置关系的两像素间灰度差大的比例高。离散性大意味着相邻像素问灰度差大的比例高,说明图像上垂直于该方向的纹理较细:相反,则图像上垂直于该方向上的纹理较租。当非主对角线上的元素的归一化结果全部为零时,元素值的离散性最小,即图像上垂直于该方向上不可能出现纹理。总的来说,离散性小的时候纹理较粗,离散性大的时候纹理较细。
(1)角二阶矩E(能量)
(2)惯性矩I(对比度)
(3)熵H
(4)局部均匀性工(逆差矩)
除了上述4个常用的纹理特征系数以外,还有诸如相关性、方差、和平均、和方差等
多个特征系数。

等灰度游程长度法

第g行第n列阵元等于在取定方向上灰度为g、游程长为n的情况出现的次数,记为P(g,n)

在这里插入图片描述
如果图像中各灰度的各游程长度接近于等分布时,RF3具有最低值。这时说明整个
图像的灰度分布是不均匀的。如果图像中某种灰度出现较多,即灰度较均匀一致时,RF3具有较高的值。这个指标从一个层面上反映了其灰度均匀性的情况。RF3较小通常表明纹理较细,变化较剧烈:RF3较大表明纹理较粗,变化平缓。
在这里插入图片描述
预处理过程包括剪切、光照不均匀校正、灰度修正、平滑、图像分割及边缘提取。将预处理后的图像用像素空间投影统计法进行分析,

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目 Value
电脑 $1600
手机 $12
导管 $1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列 第二列 第三列
第一列文本居中 第二列文本居右 第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPE ASCII HTML
Single backticks 'Isn't this fun?' ‘Isn’t this fun?’
Quotes "Isn't this fun?" “Isn’t this fun?”
Dashes -- is en-dash, --- is em-dash – is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to-HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ(n)=(n1)!nN\Gamma(n) = (n-1)!\quad\forall n\in\mathbb N 是通过欧拉积分

Γ(z)=0tz1etdt . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06Mon 13Mon 20已完成 进行中 计划一 计划二 现有任务Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::

张三李四王五你好!李四, 最近怎么样?你最近怎么样,王五?我很好,谢谢!我很好,谢谢!李四想了很长时间,文字太长了不适合放在一行.打量着王五...很好... 王五, 你怎么样?张三李四王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0开始我的操作确认?结束yesno
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件或者.html文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

2014-07-02 19:09:10 u013308233 阅读数 769
  • OpenGL ES2.0 中级篇

    巩固OpenGL ES2.0,增加了场景控制,shader光照计算,光照的多种模型,shader雾化计算 shader法线贴图的计算,shader Cartoon效果实现,以及Spline,曲线的实现,应用中实现路径动画。

    16584 人正在学习 去看看 张立铜

为了解决人脸的关照问题,现在的研究方法主要有一下3类:

一、基于不变特征的方法、关照变化建模的方法和人脸图像关照归一化的方法。基于不变特征的方法是利用人脸的关照不变特征进行人脸识别,一般指利用朗博关照模型从图像中消除关照的影响。

二、光照建模的方法,主要是指在一个在一个子空间中表示不同关照引起的变化,并估计参数模型,但是此类方法计算量大,不能应用与实时的人脸识别系统中。

三、人脸图像归一化的方法,是指利用基本的图像处理技术对光照图像进行预处理。如:直方图均衡化和伽马校正等方法。

Retinex理论是Land提出的从信号分析角度出发,直接从单张图像中提取光照不变量。

步骤:

首先从原始图像中估计光照图像,然后在对数域里从原图中减去光照图像得到增强后的图像

Retinex方法主要包括两部分:关照的估计和归一化。

 

光照模型和对数变换:

根据Retinex理论:图像由入射分量和反射分量构成:

 

其中,表示图像的亮度分量,是缓慢变化的低频信号;表示物体的反射性质,是图像的光照不变量,是图像的高频信息;

//INFaceTool.h
#include<opencv2\opencv.hpp>
using namespace cv;
Mat normalize8(Mat &X,int model=1);
// The function applies the adaptive single scale retinex algorithm to an image.
void adative_sigle_scale_retinex(Mat &img,Mat &L,Mat &Gradient,Mat&LocalInhomogenity,int T=10);
//This is an auxialry function for computing the iterative convolution
Mat convolute(Mat &X,Mat&y,Mat&N);

//INFaceTool.cpp
#include<opencv2\opencv.hpp>
#include<core\core.hpp>
#include"INFaceTool.h"
using namespace cv;
//The function adjusts the dynamic range of the grey scale image to the interval [0,255] or [0,1]
Mat normalize8(Mat&X,int model)
{   
	double max_v_x;
	double min_v_x;
	Mat Y(X.rows,X.cols,CV_64F);
	Mat Ones=Mat::ones(X.rows,X.cols,CV_64F);
	minMaxLoc(X,&min_v_x,&max_v_x,NULL,NULL);
	if(model==1)
	{
		Y=((X-min_v_x*Ones)/(max_v_x*Ones-min_v_x*Ones))*255;
		int nl=Y.rows;
	    int nc=Y.cols;
		if(Y.isContinuous())
	{
		nc=nc*nl;
		nl=1;
	}
	for(int j=0;j<nl;j++)
	{
		double*data=Y.ptr<double>(j);
		for(int i=0;i<nc;i++)
		{
			//std::cout<<"data"<<data[i];
			data[i]=ceil(data[i]);
			
		}
	}
		return Y;
	}
	else
	{
       	Y=(X-min_v_x*Ones)/(max_v_x*Ones-min_v_x*Ones);
		return Y;
	}
	
}
void adative_sigle_scale_retinex(Mat &img,Mat &L,Mat &Gradient,Mat&LocalInhomogenity,int T)
{   
	Mat X=img.clone();
	if(X.channels()==3)
	{
		cvtColor(X,X,CV_RGB2GRAY);
	}

	X.convertTo(X,CV_64F);
	X=normalize8(X);
	// Compute spatial gradient in x and y directions
	int a=X.rows;
	int b=X.cols;
	Mat X1=Mat::zeros(a,b+2,CV_64F);
	Mat X1r=X1(Rect(2,0,b,a)); X.copyTo(X1r);
	Mat X2=Mat::zeros(a,b+2,CV_64F);
    Mat X2r=X2(Rect(0,0,b,a));X.copyTo(X2r);
	Mat Gx=X1(Rect(1,0,b,a))-X2(Rect(1,0,b,a));
	X1=Mat::zeros(a+2,b,CV_64F);
	X1r=X1(Rect(0,2,b,a));X.copyTo(X1r);
	X2=Mat::zeros(a+2,b,CV_64F);
	X2r=X2(Rect(0,0,b,a));X.copyTo(X2r);
	Mat Gy=X1(Rect(0,1,b,a))-X2(Rect(0,1,b,a));
	pow(Gx,2,Gx);
	pow(Gy,2,Gy);
	Mat I;
	pow((Gx+Gy),0.5,I);
	
    //Compute local inhomogenity
	Mat tao=Mat::zeros(a,b,CV_64F);
	Mat Xtmp=Mat::zeros(a+2,b+2,CV_64F);
	Mat Xtmpr=Xtmp(Rect(1,1,b,a));X.copyTo(Xtmpr);
	float suma=0;
	for(int i=1;i<a+1;i++)
	{
		for(int j=1;j<b+1;j++)
		{
			suma=0;
			for(int k=-1;k<2;k++)
			{ for(int h=-1;h<2;h++)
				{
				   suma=suma+abs(X.at<double>(i-1,j-1)-Xtmp.at<double>(i+k,j+h));
				}
			}
			suma=suma/9;
			tao.at<double>(i-1,j-1)=suma;

		}
	}
	double tao_min,tao_max;
	minMaxLoc(tao,&tao_min,&tao_max,NULL,NULL);
	Mat tao_slash=(tao-tao_min)/(tao_max-tao_min);
	int nl=tao_slash.rows;
	int nc=tao_slash.cols;
	if(tao_slash.isContinuous())
	{
		nc=nc*nl;
		nl=1;
	}
	for(int j=0;j<nl;j++)
	{
		double*data=tao_slash.ptr<double>(j);
		for(int i=0;i<nc;i++)
		{
			//std::cout<<"data"<<data[i];
			data[i]=sin(CV_PI/2*data[i]);
			
		}
	}
	
	Scalar m1=mean(I);
	Scalar m2=mean(tao_slash);
	double meanI=m1.val[0];
	double meanH=m2.val[0];
	//Set needed parameters if they are not provided as inputs
	double S=10*exp(-(meanI)/10);
	double h=0.1*exp(-(meanH)/0.1);

	//Determine weight functions
	Mat sqrt_tao_slash;
	Mat sqrt_I;
	pow(tao_slash/h,0.5,sqrt_tao_slash);
	pow(I/S,0.5,sqrt_I);
	Mat alpha=1/(1+sqrt_tao_slash);
	Mat beta=1/(1+sqrt_I);
	Mat weight=alpha.mul(beta);
	//precompute Ns
	Mat w=Mat::zeros(a+2,b+2,CV_64F);
	Mat wr=w(Rect(1,1,b,a));
	weight.copyTo(wr);
	Mat N=Mat::zeros(a,b,CV_64F);
	for(int i=1;i<a+1;i++)
	{
		
		for(int j=1;j<b+1;j++)
		{   suma=0;
			for(int k=-1;k<2;k++)
			{
				for(h=-1;h<2;h++)
				{
					suma=suma+(w.at<double>(i+k,j+h));
				}
			}
             N.at<double>(i-1,j-1)=suma;
		}
	}
	// Start iterative convolution
	Mat L_old;
	X.copyTo(L_old);
	Mat L_new,L_new_s;
	L_new=Mat::zeros(a,b,CV_64F);
	L_new_s=Mat::zeros(a,b,CV_64F);
	for(int i=0;i<T;i++)
	{
		L_new_s=convolute(L_old,weight,N);
		L_new=max(L_new_s,L_old);
		L_new.reshape(0,a);
		L_new.copyTo(L_old);
	}	
	
	//Produce ilumination invariant representation of input image
	 nc=X.cols;
	 nl=X.rows;
	if(X.isContinuous())
	{
		nc=nc*nl;
		nl=1;
	}
// R=Mat::zeros(a,b,CV_64F);
 L=Mat::zeros(a,b,CV_64F);;
	for(int j=0;j<nl;j++)
    { //double*dataR=R.ptr<double>(j);
	  double*dataX=X.ptr<double>(j);
	  double*dataL=L.ptr<double>(j);
	  double*dataL_new=L_new.ptr<double>(j);
		for(int i=0;i<nc;i++)
		{
            //dataR[i]=log(dataX[i]+1)-log(dataL_new[i]+1);
			dataL[i]=log(dataL_new[i]+1);
			
		}
	}	

	L=normalize8(L);
   // R=normalize8(R);
	L.convertTo(L,CV_8U);
    //R.convertTo(R,CV_8U);
	I.convertTo(I,CV_8U);
    I.copyTo(Gradient);
	tao_slash.copyTo(tao_slash);
    //tao_slash.copyTo(LocalInhomogenity);

	

}
//This is an auxialry function for computing the iterative convolution
Mat convolute(Mat &X,Mat&y,Mat&N)
{
	int a=X.rows;
	int b=X.cols;
	Mat X1=Mat::zeros(a+2,b+2,CV_64F);
	Mat X1r=X1(Rect(1,1,b,a));X.copyTo(X1r);

	Mat w=Mat::zeros(a+2,b+2,CV_64F);
	Mat wr=w(Rect(1,1,b,a));y.copyTo(wr);
	Mat Y=Mat::zeros(a,b,CV_64F);
	double tt;
	for(int i=1;i<a;i++)
	{
		for(int j=1;j<b;j++)
		{
			
			tt=sum(X1(Rect(j-1,i-1,3,3)).mul(w(Rect(j-1,i-1,3,3)))).val[0];
			Y.at<double>(i-1,j-1)=tt/N.at<double>(i-1,j-1);
	
		}
	}
	return Y;
	
}





PoseNet学习笔记

阅读数 191

2010 光源位置估计

阅读数 477

没有更多推荐了,返回首页