2019-09-05 17:19:53 Wing_Ming 阅读数 195

深度学习在图像处理领域中的应用综述》部分概念解读:

1.特征表达/提取方法->特征学习

图像特征是指图像的原始特性或属性,可以分为视觉特征或统计特征。视觉特征主要是人的视觉直觉感受的自然特征(图像的颜色、纹理和形状);统计特征是指需要通过变换或测量才能得到的人为特征(频谱、直方图等)。

常见特征提取方法:

  • LBP算法(Local Binary Patterns):一种用来描述图像局部纹理特征的算子,具有灰度不变性。

    其主要思想是在目标像素周围定义一个3x3的窗口,以目标像素为阈值,将相邻的8个像素的灰度值与目标像素进行对比,大于目标像素标记为1,小于等于则标记为0。每个窗口都可以产生一个8位的二进制数,这样就得到了目标像素的LBP值。然后计算每个区域的直方图,然后对该直方图进行归一化处理。最后将得到的每个区域的统计直方图进行连接成为一个特征向量,也就是整幅图的LBP纹理特征向量。然后便可利用SVM或者其他机器学习算法进行分类。

  • HOG特征提取算法(Histogram of Oriented Gradient):在一幅图像中,图像的表象和形状能够被边缘或梯度的方向密度分布很好的表示,具有几何和光学不变性。

    其主要思想是将图像灰度化,采用Gamma校正法对输入图像进行颜色空间的标准化以调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;计算图像每个像素的梯度,将图像划分成小区域,统计每个区域的梯度直方图,将每几个区域组成一个批次,一个批次内所有区域的特征串联起来便得到该批次的HOG特征。将图像内的所有批次的HOG特征串联起来就可以得到该图像的HOG特征。这个就是最终的可供分类使用的特征向量了。

  • SIFT算子(Scale-invariant feature transform):通过求一幅图中的特征点及其有关尺寸和方向的描述子得到特征并进行图像特征点匹配,具有尺度不变性和旋转不变性。

    其主要思想是首先生成尺度空间->检测尺度空间极值点->去除不好的特征点->为每个关键点指定方向参数->生成关键点描述子->根据SIFT进行图像的匹配。

2.图像识别or图像取证

图像识别技术的过程分为信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。模式识别是指对表示事物或现象的不同形式的信息做分析和处理从而得到一个对事物或现象做出描述、辨认和分类等的过程,其主要分为三种:统计模式识别、句法模式识别、模糊模式识别。

图像取证不同于图像识别的地方在于识别是区分图像内容里的差异,肉眼可以察觉到,而取证则是区分图像中以微弱信号存在的操作指纹,类间形态的差异微乎其微,所以对于图像取证问题一般的深度学习模型不能胜任。图像取证的性质必然决定了网络输入的改变, 只有放大了想要提取的指纹特征,深度学习模型才能更好地充当一个特征提取和分类器。 

相关研究:https://blog.csdn.net/qq_35509823/article/details/86505661

3.Degradation退化

随着网络结构的加深,带来了两个问题:一是消失/爆炸梯度,导致了训练十分难收敛,这类问题能够通过正则化和归一化解决;另一个是被称为degradation的退化现象。对合适的深度模型继续增加层数,模型准确率会下滑,训练误差和测试误差都会很高。其实当BN出现之后,梯度消失和爆炸的问题已经基本上被解决了,但是网络层数加深之后还是会出现效果差的情况,ResNet主要解决的是网络的退化问题。

解释1:网络越深,反传回来的梯度相关性越来越差,最后接近白噪声。我们认为图像具有局部相关性,因此梯度应该也具有类似的相关性,这样的更新才有意义,如果接近白噪声,那其实就可以认为做随机扰动。自然效果就越来越差了。解释2:引入残差之后对参数的变化更加的敏感。原本的网络只是学习一个从输入到输出的映射,现在学习的是输入和输出之间的差值。解释3:现在我们要训练一个深层的网络,它可能过深,假设存在一个性能最强的完美网络N,与它相比我们的网络中必定有一些层是多余的,那么这些多余的层的训练目标是恒等变换,只有达到这个目标我们的网络性能才能跟N一样。对于这些需要实现恒等变换的多余的层,要拟合的目标就成了H(x)=x,在传统网络中,网络的输出目标是F(x)=x,这比较困难,而在残差网络中,拟合的目标成了x-x=0,网络的输出目标为F(x)=0,这比前者要容易得多。解释4:类似LSTM的思想,加入一个进位闸,让数据能够传到后面去,不至于由于网络越来越深,到了后面学习不到有效的特征了。所以加入一个快捷键,让数据一直往下传,让每一层都能读到有效的特征。

4.降维

计算机的图像识别技术是一个异常高维的识别技术。不管图像本身的分辨率如何,其产生的数据经常是多维性的,这给计算机的识别带来了非常大的困难。想让计算机具有高效地识别能力,最直接有效的方法就是降维。降维分为线性降维和非线性降维。常见的线性降维方法有主成分分析(PCA)/线性奇异分析(LDA),它们简单、易于理解。但是通过线性降维处理的是整体的数据集合,所求的是整个数据集合的最优低维投影。经过验证,这种线性的降维策略计算复杂度高而且占用相对较多的时间和空间,因此就产生了基于非线性降维的图像识别技术,它是一种极其有效的非线性特征提取方法。此技术可以发现图像的非线性结构而且可以在不破坏其本征结构的基础上对其进行降维,使计算机的图像识别在尽量低的维度上进行,这样就提高了识别速率。例如人脸图像识别系统所需的维数通常很高,其复杂度之高对计算机来说无疑是巨大的“灾难”。由于在高维度空间中人脸图像的不均匀分布,使得人类可以通过非线性降维技术来得到分布紧凑的人脸图像,从而提高人脸识别技术的高效性。

5.R-CNN

物体检测算法中常用到的几个概念:Bounding Box:bbox是包含物体的最小矩形,该物体应在最小矩形内部。物体检测中关于物体位置的信息输出是一组(x,y,w,h)数据,其中x,y代表着bbox的左上角或其他固定点,对应的w,h表示bbox的宽和高。一组(x,y,w,h)唯一确定一个定位框。Intersection over Union(IoU):对于两个区域R和R′,两个区域的重叠程度记为overlap。在训练网络的时候,我们常依据侯选区域和标定区域的IoU值来确定正负样本。非极大值抑制(Non-Maximum Suppression,NMS):就是把不是极大值的抑制掉,在物体检测上,就是对一个目标有多个标定框,使用极大值抑制算法滤掉多余的标定框。

R-CNN(即Region-CNN,是第一个成功将深度学习应用到目标检测上的算法。R-CNN基于CNN,线性回归,和SVM等算法,实现目标检测技术。物体检查系统可以大致分为四步进行:
获取输入图像->提取约2000个候选区域->将候选区域输入CNN网络(候选图片需缩放)->将CNN的输出输入SVM中进行类别的判定

6.目标检测

即找出图像中所有感兴趣的目标,确定它们的位置和大小,是机器视觉领域的核心问题之一。由于各类物体有不同的外观,形状,姿态,加上成像时光照,遮挡等因素的干扰,目标检测一直是机器视觉领域最具有挑战性的问题。目标检测要解决的核心问题是:目标可能出现在图像的任何位置,可能有各种不同的大小,可能有各种不同的形状。

计算机视觉中关于图像识别有四大类任务:
分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。
定位-Location:解决“在哪里?”的问题,即定位出这个目标的的位置。
检测-Detection:解决“是什么?在哪里?”的问题,即定位出这个目标的的位置并且知道目标物是什么。
分割-Segmentation:分为实例分割和场景分割,解决“每一个像素属于哪个目标物或场景”的问题。

7.四元数

四元数是用于表示旋转的一种方式,是简单的超复数,都是由实数加上三个虚数单位 i、j、k 组成,而且它们有如下的关系: i^2 = j^2 = k^2 = -1, i^0 = j^0 = k^0 = 1 , 每个四元数都是 1、i、j 和 k 的线性组合,即是四元数一般可表示为a + bi+ cj + dk,其中a、b、c 、d是实数。

对于i、j、k本身的几何意义可以理解为一种旋转,其中i旋转代表X轴与Y轴相交平面中X轴正向向Y轴正向的旋转,j旋转代表Z轴与X轴相交平面中Z轴正向向X轴正向的旋转,k旋转代表Y轴与Z轴相交平面中Y轴正向向Z轴正向的旋转,-i、-j、-k分别代表i、j、k旋转的反向旋转。

2015-08-05 15:52:36 YHR14 阅读数 320
搞图像处理这一行,在理论方面,有几本杂志是要看的,自然是英文杂志,中文期刊好像没有专门的图像处理期刊,当然也有不少涉及这方面的期刊,但实事求是来说,的确比英文杂志水平差很多。
‘IEEE Transactions on Pattern Recognition And Machine Intelligence’
‘IEEE Transactions on Image Processing’
是最重要的两本,其它的如ICCV、CVPR、ECCV、NIPS、BMVC等的会议文章也非常好。
2018-01-29 10:43:26 zhu_hongji 阅读数 1082

转自http://blog.csdn.net/passball/article/details/42805269

1. 数学

我们所说的图像处理实际上就是数字图像处理,是把真实世界中的连续三维随机信号投影到传感器的二维平面上,采样并量化后得到二维矩阵。数字图像处理就是二维矩阵的处理,而从二维图像中恢复出三维场景就是计算机视觉的主要任务之一。这里面就涉及到了图像处理所涉及到的三个重要属性:连续性,二维矩阵,随机性。所对应的数学知识是高等数学(微积分),线性代数(矩阵论),概率论和随机过程。这三门课也是考研的三门课,构成了图像处理和计算机视觉最基础的数学基础。如果想要更进一步,就要到网上搜搜林达华推荐的数学数目了。


2. 信号处理

图像处理其实就是二维和三维信号处理,而处理的信号又有一定的随机性,因此经典信号处理和随机信号处理都是图像处理和计算机视觉中必备的理论基础。


2.1经典信号处理

信号与系统(第2版)  Alan V.Oppenheim等著 刘树棠译

离散时间信号处理(第2版)  A.V.奥本海姆等著 刘树棠译

数字信号处理:理论算法与实现胡广书 (编者)

 

2.2随机信号处理

现代信号处理 张贤达著

统计信号处理基础:估计与检测理论Steven M.Kay等著 罗鹏飞等译

自适应滤波器原理(第4版) Simon Haykin著 郑宝玉等译

 

2.3 小波变换

信号处理的小波导引:稀疏方法(原书第3版)  tephane Malla著, 戴道清等译

 

2.4 信息论

信息论基础(原书第2版) Thomas M.Cover等著 阮吉寿等译


3. 模式识别

Pattern Recognition and Machine Learning Bishop, Christopher M. Springer

模式识别(英文版)(第4版) 西奥多里德斯著

Pattern Classification (2nd Edition) Richard O. Duda等著

Statistical Pattern Recognition, 3rd Edition Andrew R. Webb等著

模式识别(第3版) 张学工著


4. 图像处理与计算机视觉的书籍推荐

图像处理,分析与机器视觉 第三版Sonka等著 艾海舟等译

Image Processing, Analysis and Machine Vision

这本书是图像处理与计算机视觉里面比较全的一本书了,几乎涵盖了图像视觉领域的各个方面。中文版的个人感觉也还可以,值得一看。


数字图像处理 第三版 冈萨雷斯等著

Digital Image Processing

数字图像处理永远的经典,现在已经出到了第三版,相当给力。我的导师曾经说过,这本书写的很优美,对写英文论文也很有帮助,建议购买英文版的。


计算机视觉:理论与算法 RichardSzeliski著

Computer Vision: Theory and Algorithm

微软的Szeliski写的一本最新的计算机视觉著作。内容非常丰富,尤其包括了作者的研究兴趣,比如一般的书里面都没有的Image Stitching和Image Matting等。这也从另一个侧面说明这本书的通用性不如Sonka的那本。不过作者开放了这本书的电子版,可以有选择性的阅读。


Multiple View Geometry in Computer Vision 第二版Harley等著

引用达一万多次的经典书籍了。第二版到处都有电子版的。第一版曾出过中文版的,后来绝版了。网上也可以找到电子版。


计算机视觉:一种现代方法 DAForsyth等著

Computer Vision: A Modern Approach

MIT的经典教材。虽然已经过去十年了,还是值得一读。第二版已经在今年(2012年)出来了,在iask上可以找到非常清晰的版本,将近800页,补充了很多内容。期待影印版。


Machine vision: theory,algorithms, practicalities 第三版 Davies著

为数不多的英国人写的书,偏向于工业。


数字图像处理 第四版 Pratt著

Digital Image Processing

写作风格独树一帜,也是图像处理领域很不错的一本书。网上也可以找到非常清晰的电子版。


5 小结

罗嗦了这么多,实际上就是几个建议:

(1)基础书千万不可以扔,也不能低价处理给同学或者师弟师妹。不然到时候还得一本本从书店再买回来的。钱是一方面的问题,对着全新的书看完全没有看自己当年上过的课本有感觉。

(2)遇到有相关的课,果断选修或者蹭之,比如随机过程,小波分析,模式识别,机器学习,数据挖掘,现代信号处理甚至泛函。多一些理论积累对将来科研和工作都有好处。

(3)资金允许的话可以多囤一些经典的书,有的时候从牙缝里面省一点都可以买一本好书。不过千万不要像我一样只囤不看。

图像处理与计算机视觉:基础,经典以及最近发展(3)计算机视觉中的信号处理与模式识别

Last Update: 2012-6-23


从本章开始,进入本文的核心章节。一共分三章,分别讲述信号处理与模式识别,图像处理与分析以及计算机视觉。与其说是讲述,不如说是一些经典文章的罗列以及自己的简单点评。与前一个版本不同的是,这次把所有的文章按类别归了类,并且增加了很多文献。分类的时候并没有按照传统的分类方法,而是划分成了一个个小的门类,比如SIFT,Harris都作为了单独的一类,虽然它们都可以划分到特征提取里面去。这样做的目的是希望能突出这些比较实用且比较流行的方法。为了以后维护的方法,按照字母顺序排的序。

本章的下载地址在:

http://iask.sina.com.cn/u/2252291285/ish?folderid=868770

1.  Boosting


Boosting是最近十来年来最成功的一种模式识别方法之一,个人认为可以和SVM并称为模式识别双子星。它真正实现了“三个臭皮匠,赛过诸葛亮”。只要保证每个基本分类器的正确率超过50%,就可以实现组合成任意精度的分类器。这样就可以使用最简单的线性分类器。Boosting在计算机视觉中的最成功的应用无疑就是Viola-Jones提出的基于Haar特征的人脸检测方案。听起来似乎不可思议,但Haar+Adaboost确实在人脸检测上取得了巨大的成功,已经成了工业界的事实标准,并且逐步推广到其他物体的检测。

Rainer Lienhart在2002 ICIP发表的这篇文章是Haar+Adaboost的最好的扩展,他把原始的两个方向的Haar特征扩展到了四个方向,他本人是OpenCV积极的参与着。现在OpenCV的库里面实现的Cascade Classification就包含了他的方法。这也说明了盛会(如ICIP,ICPR,ICASSP)也有好文章啊,只要用心去发掘。


[1997] A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting

[1998] Boosting the margin A new explanation for the effectiveness of voting methods

[2002 ICIP TR] Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid ObjectDetection

[2003] The Boosting Approach to Machine Learning An Overview

[2004 IJCV] Robust Real-time Face Detection


2. Clustering


聚类主要有K均值聚类,谱聚类和模糊聚类。在聚类的时候如果自动确定聚类中心的数目是一个一直没有解决的问题。不过这也很正常,评价标准不同,得到的聚类中心数目也不一样。不过这方面还是有一些可以参考的文献,在使用的时候可以基于这些方法设计自己的准则。关于聚类,一般的模式识别书籍都介绍的比较详细,不过关于cluster validity讲的比较少,可以参考下面的文章看看。


[1989 PAMI] Unsupervised Optimal Fuzzy Clustering

[1991 PAMI] A validity measure for fuzzy clustering

[1995 PAMI] On cluster validity for the fuzzy c-means model

[1998] Some New Indexes of Cluster Validity

[1999 ACM] Data Clustering A Review

[1999 JIIS] On Clustering Validation Techniques

[2001] Estimating the number of clusters in a dataset via the Gap statistic

[2001 NIPS] On Spectral Clustering

[2002] A stability based method for discovering structure in clustered data

[2007] A tutorial on spectral clustering


3.  Compressive Sensing


最近大红大紫的压缩感知理论。


[2006 TIT] Compressed Sensing

[2008 SPM] An Introduction to Compressive Sampling

[2011 TSP] Structured Compressed Sensing From Theory to Applications


4. Decision Trees


对决策树感兴趣的同学这篇文章是非看不可的了。


[1986] Introduction to Decision Trees


5. Dynamical Programming


动态规划也是一个比较使用的方法,这里挑选了一篇PAMI的文章以及一篇Book Chapter


[1990 PAMI] using dynamic programming for solving variational problems in vision

[Book Chapter] Dynamic Programming


6.  Expectation Maximization


EM是计算机视觉中非常常见的一种方法,尤其是对参数的估计和拟合,比如高斯混合模型。EM和GMM在Bishop的PRML里单独的作为一章,讲的很不错。关于EM的tutorial,网上也可以搜到很多。


[1977] Maximum likelihood from incomplete data via the EM algorithm

[1996 SPM] The Expectation-Maximzation Algorithm


7.  Graphical Models


伯克利的乔丹大仙的Graphical Model,可以配合这Bishop的PRML一起看。


[1999 ML] An Introduction to Variational Methods for Graphical Models


8. Hidden Markov Model


HMM在语音识别中发挥着巨大的作用。在信号处理和图像处理中也有一定的应用。最早接触它是跟小波和检索相关的,用HMM来描述小波系数之间的相互关系,并用来做检索。这里提供一篇1989年的经典综述,几篇HMM在小波,分割,检索和纹理上的应用以及一本比较早的中文电子书,现在也不知道作者是谁,在这里对作者表示感谢。


[1989 ] A tutorial on hidden markov models and selected applications in speech recognition

[1998 TSP] Wavelet-based statistical signal processing using hidden Markov models

[2001 TIP] Multiscale image segmentation using wavelet-domain hidden Markov models

[2002 TMM] Rotation invariant texture characterization and retrieval using steerable wavelet-domain hiddenMarkov models

[2003 TIP] Wavelet-based texture analysis and synthesis using hidden Markov models

Hmm Chinese book.pdf


9.  Independent Component Analysis


同PCA一样,独立成分分析在计算机视觉中也发挥着重要的作用。这里介绍两篇综述性的文章,最后一篇是第二篇的TR版本,内容差不多,但比较清楚一些。


[1999] Independent Component Analysis A Tutorial

[2000 NN] Independent component analysis algorithms and applications

[2000] Independent Component Analysis Algorithms and Applications


10. Information Theory


计算机视觉中的信息论。这方面有一本很不错的书Information Theory in Computer Vision and Pattern Recognition。这本书有电子版,如果需要用到的话,也可以参考这本书。


[1995 NC] An Information-Maximization Approach to Blind Separation and Blind Deconvolution

[2010] An information theory perspective on computational vision


11.  Kalman Filter


这个话题在张贤达老师的现代信号处理里面讲的比较深入,还给出了一个有趣的例子。这里列出了Kalman的最早的论文以及几篇综述,还有Unscented Kalman Filter。同时也有一篇Kalman Filter在跟踪中的应用以及两本电子书。


[1960 Kalman] A New Approach to Linear Filtering and Prediction Problems Kalman

[1970] Least-squares estimation_from Gauss to Kalman

[1997 SPIE] A New Extension of the Kalman Filter to Nonlinear System

[2000] The Unscented Kalman Filter for Nonlinear Estimation

[2001 Siggraph] An Introduction to the Kalman Filter_full

[2003] A Study of the Kalman Filter applied to Visual Tracking


12.  Pattern Recognition and Machine Learning


模式识别名气比较大的几篇综述


[2000 PAMI] Statistical pattern recognition a review

[2004 CSVT] An Introduction to Biometric Recognition

[2010 SPM] Machine Learning in Medical Imaging


13. Principal Component Analysis


著名的PCA,在特征的表示和特征降维上非常有用。


[2001 PAMI] PCA versus LDA

[2001] Nonlinear component analysisas a kernel eigenvalue problem

[2002] A Tutorial on Principal Component Analysis

[2004 PAMI] Two-dimensional PCA a new approach to appearance-based face representation and recognition

[2009] A Tutorial on Principal Component Analysis

[2011] Robust Principal Component Analysis

[Book Chapter] Singular Value Decomposition and Principal Component Analysis


14.  Random Forest


随机森林


[2001 ML] Random Forests


15.      RANSAC


随机抽样一致性方法,与传统的最小均方误差等完全是两个路子。在Sonka的书里面也有提到。


[2009 BMVC] Performance Evaluation of RANSAC Family


16.      Singular Value Decomposition

对于非方阵来说,就是SVD发挥作用的时刻了。一般的模式识别书都会介绍到SVD。这里列出了K-SVD以及一篇BookChapter

[2006 TSP] K-SVD An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation

[Book Chapter] Singular Value Decomposition and Principal Component Analysis


17.  Sparse Representation


这里主要是Proceeding of IEEE上的几篇文章


[2009 PAMI] Robust Face Recognition via Sparse Representation

[2009 PIEEE] Image Decomposition and Separation Using Sparse Representations An Overview

[2010 PIEEE] Dictionaries for Sparse Representation Modeling

[2010 PIEEE] It's All About the Data

[2010 PIEEE] Matrix Completion With Noise

[2010 PIEEE] On the Role of Sparse and Redundant Representations in Image Processing

[2010 PIEEE] Sparse Representation for Computer Vision and Pattern Recognition

[2011 SPM] Directionary Learning


18.   Support Vector Machines

[1998] A Tutorial on Support Vector Machines for Pattern Recognition

[2004] LIBSVM A Library for Support Vector Machines


19.  Wavelet

在小波变换之前,时频分析的工具只有傅立叶变换。众所周知,傅立叶变换在时域没有分辨率,不能捕捉局部频域信息。虽然短时傅立叶变换克服了这个缺点,但只能刻画恒定窗口的频率特性,并且不能很好的扩展到二维。小波变换的出现很好的解决了时频分析的问题,作为一种多分辨率分析工具,在图像处理中得到了极大的发展和应用。在小波变换的发展过程中,有几个人是不得不提的,Mallat, Daubechies,Vetteri, M.N.Do, Swelden,Donoho。Mallat和Daubechies奠定了第一代小波的框架,他们的著作更是小波变换的必读之作,相对来说,小波十讲太偏数学了,比较难懂。而Mallat的信号处理的小波导引更偏应用一点。Swelden提出了第二代小波,使小波变换能够快速方便的实现,他的功劳有点类似于FFT。而Donoho,Vetteri,Mallat及其学生们提出了Ridgelet, Curvelet, Bandelet,Contourlet等几何小波变换,让小波变换有了方向性,更便于压缩,去噪等任务。尤其要提的是M.N.Do,他是一个越南人,得过IMO的银牌,在这个领域著作颇丰。我们国家每年都有5个左右的IMO金牌,希望也有一两个进入这个领域,能够也让我等也敬仰一下。而不是一股脑的都进入金融,管理这种跟数学没有多大关系的行业,呵呵。很希望能看到中国的陶哲轩,中国的M.N.Do。


说到小波,就不得不提JPEG2000。在JPEG2000中使用了Swelden和Daubechies提出的用提升算法实现的9/7小波和5/3小波。如果对比JPEG和JPEG2000,就会发现JPEG2000比JPEG在性能方面有太多的提升。本来我以为JPEG2000的普及只是时间的问题。但现在看来,这个想法太Naive了。现在已经过去十几年了,JPEG2000依然没有任何出头的迹象。不得不说,工业界的惯性力量太强大了。如果以前的东西没有什么硬伤的话,想改变太难了。不巧的是,JPEG2000的种种优点在最近的硬件上已经有了很大的提升。压缩率?现在动辄1T,2T的硬盘,没人太在意压缩率。渐进传输?现在的网速包括无线传输的速度已经相当快了,渐进传输也不是什么优势。感觉现在做图像压缩越来越没有前途了,从最近的会议和期刊文档也可以看出这个趋势。不管怎么说,JPEG2000的Overview还是可以看看的。


[1989 PAMI] A theory for multiresolution signal decomposition__the wavelet representation

[1996 PAMI] Image Representation using 2D Gabor Wavelet

[1998 ] FACTORING WAVELET TRANSFORMSIN TO LIFTING STEPS

[1998] The Lifting Scheme_ A Construction Of Second Generation Wavelets

[2000 TCE] The JPEG2000 still image coding system_ an overview

[2002 TIP] The curvelet transform for image denoising

[2003 TIP] Gray and color imagecontrast enhancement by the curvelet transform

[2003 TIP] Mathematical Properties of the jpeg2000 wavelet filters

[2003 TIP] The finite ridgelet transform for image representation

[2005 TIP] Sparse Geometric Image Representations With Bandelets

[2005 TIP] The Contourlet Transform_ An Efficient Directional Multiresolution Image Representation

[2010 SPM] The Curvelet Transform


图像处理与计算机视觉:基础,经典以及最近发展(4)图像处理与分析

Last update: 2012-6-3

本章主要讨论图像处理与分析。虽然后面计算机视觉部分的有些内容比如特征提取等也可以归结到图像分析中来,但鉴于它们与计算机视觉的紧密联系,以及它们的出处,没有把它们纳入到图像处理与分析中来。同样,这里面也有一些也可以划归到计算机视觉中去。这都不重要,只要知道有这么个方法,能为自己所用,或者从中得到灵感,这就够了。

本章的下载地址在:

http://iask.sina.com.cn/u/2252291285/ish?folderid=868771


1. Bilateral Filter

Bilateral Filter俗称双边滤波器是一种简单实用的具有保持边缘作用的平缓滤波器,由Tomasi等在1998年提出。它现在已经发挥着重大作用,尤其是在HDR领域。

[1998 ICCV] BilateralFiltering for Gray and Color Images

[2008 TIP] AdaptiveBilateral Filter for Sharpness Enhancement and Noise Removal


2. Color

如果对颜色的形成有一定的了解,能比较深刻的理解一些算法。这方面推荐冈萨雷斯的数字图像处理中的相关章节以及Sharma在Digital Color Imaging Handbook中的第一章“Colorfundamentals for digital imaging”。跟颜色相关的知识包括Gamma,颜色空间转换,颜色索引以及肤色模型等,这其中也包括著名的EMD。

[1991 IJCV] Color Indexing

[2000 IJCV] The EarthMover's Distance as a Metric for Image Retrieval

[2001 PAMI] Colorinvariance

[2002 IJCV] StatisticalColor Models with Application to Skin Detection

[2003] A review of RGBcolor spaces

[2007 PR]A survey ofskin-color modeling and detection methods

Gamma.pdf

GammaFAQ.pdf


3.Compression and Encoding

个人以为图像压缩编码并不是当前很热的一个话题,原因前面已经提到过。这里可以看看一篇对编码方面的展望文章

[2005 IEEE] Trends andperspectives in image and video coding


4.Contrast Enhancement

对比度增强一直是图像处理中的一个恒久话题,一般来说都是基于直方图的,比如直方图均衡化。冈萨雷斯的书里面对这个话题讲的比较透彻。这里推荐几篇个人认为不错的文章。

[2002 IJCV] Vision and theAtmosphere

[2003 TIP] Gray and colorimage contrast enhancement by the curvelet transform

[2006 TIP] Gray-levelgrouping (GLG) an automatic method for optimized image contrastenhancement-part II

[2006 TIP] Gray-levelgrouping (GLG) an automatic method for optimized image contrastEnhancement-part I

[2007 TIP] TransformCoefficient Histogram-Based Image Enhancement Algorithms Using Contrast Entropy

[2009 TIP] A HistogramModification Framework and Its Application for Image Contrast Enhancement


5. Deblur (Restoration)

图像恢复或者图像去模糊一直是一个非常难的问题,尤其是盲图像恢复。港中文的jiaya jia老师在这方面做的不错,他在主页也给出了exe。这方面的内容也建议看冈萨雷斯的书。这里列出了几篇口碑比较好的文献,包括古老的Richardson-Lucy方法,几篇盲图像恢复的综述以及最近的几篇文章,尤以Fergus和Jiaya Jia的为经典。

[1972] Bayesian-BasedIterative Method of Image Restoration

[1974] an iterative techniquefor the rectification of observed distributions

[1990 IEEE] Iterativemethods for image deblurring

[1996 SPM] Blind ImageDeconvolution

[1997 SPM] Digital imagerestoration

[2005] Digital ImageReconstruction - Deblurring and Denoising

[2006 Siggraph] RemovingCamera Shake from a Single Photograph

[2008 Siggraph]High-quality Motion Deblurring from a Single Image

[2011 PAMI]Richardson-Lucy Deblurring for Scenes under a Projective Motion Path


6. Dehazing and Defog

严格来说去雾化也算是图像对比度增强的一种。这方面最近比较好的工作就是He kaiming等提出的Dark Channel方法。这篇论文也获得了2009的CVPR 最佳论文奖。2003年的广东高考状元已经于2011年从港中文博士毕业加入MSRA(估计当时也就二十五六岁吧),相当了不起。

[2008 Siggraph] SingleImage Dehazing

[2009 CVPR] Single ImageHaze Removal Using Dark Channel Prior

[2011 PAMI] Single ImageHaze Removal Using Dark Channel Prior


7. Denoising

图像去噪也是图像处理中的一个经典问题,在数码摄影中尤其重要。主要的方法有基于小波的方法和基于偏微分方程的方法。

[1992 SIAM] Imageselective smoothing and edge detection by nonlinear diffusion. II

[1992 SIAM] Imageselective smoothing and edge detection by nonlinear diffusion

[1992] Nonlinear totalvariation based noise removal algorithms

[1994 SIAM] Signal andimage restoration using shock filters and anisotropic diffusion

[1995 TIT] De-noising bysoft-thresholding

[1998 TIP] Orientationdiffusions

[2000 TIP] Adaptivewavelet thresholding for image denoising and compression

[2000 TIP] Fourth-orderpartial differential equations for noise removal

[2001] Denoising  through wavelet shrinkage

[2002 TIP] The CurveletTransform for Image Denoising

[2003 TIP] Noise removalusing fourth-order partial differential equation with applications to medicalmagnetic resonance images in space and time

[2008 PAMI] AutomaticEstimation and Removal of Noise from a Single Image

[2009 TIP] Is DenoisingDead


8. Edge Detection

边缘检测也是图像处理中的一个基本任务。传统的边缘检测方法有基于梯度算子,尤其是Sobel算子,以及经典的Canny边缘检测。到现在,Canny边缘检测及其思想仍在广泛使用。关于Canny算法的具体细节可以在Sonka的书以及canny自己的论文中找到,网上也可以搜到。最快最直接的方法就是看OpenCV的源代码,非常好懂。在边缘检测方面,Berkeley的大牛J Malik和他的学生在2004年的PAMI提出的方法效果非常好,当然也比较复杂。在复杂度要求不高的情况下,还是值得一试的。MIT的Bill Freeman早期的代表作Steerable Filter在边缘检测方面效果也非常好,并且便于实现。这里给出了几篇比较好的文献,包括一篇最新的综述。边缘检测是图像处理和计算机视觉中任何方向都无法逃避的一个问题,这方面研究多深都不为过。

[1980] theory of edgedetection

[1983 Canny Thesis] findedge

[1986 PAMI] AComputational Approach to Edge Detection

[1990 PAMI] Scale-spaceand edge detection using anisotropic diffusion

[1991 PAMI] The design anduse of steerable filters

[1995 PR] Multiresolutionedge detection techniques

[1996 TIP] Optimal edgedetection in two-dimensional images

[1998 PAMI] Local ScaleControl for Edge Detection and Blur Estimation

[2003 PAMI] Statisticaledge detection_ learning and evaluating edge cues

[2004 IEEE] Edge DetectionRevisited

[2004 PAMI] Design ofsteerable filters for feature detection using canny-like criteria

[2004 PAMI] Learning toDetect Natural Image Boundaries Using Local Brightness, Color, and Texture Cues

[2011 IVC] Edge and lineoriented contour detection State of the art


9. Graph Cut

基于图割的图像分割算法。在这方面没有研究,仅仅列出几篇引用比较高的文献。这里又见J Malik,当然还有华人杰出学者Jianbo Shi,他的主页非常搞笑,在醒目的位置标注Do not flyChina Eastern Airlines ... 看来是被坑过,而且坑的比较厉害。这个领域,俄罗斯人比较厉害。

[2000 PAMI] Normalizedcuts and image segmentation

[2001 PAMI] Fastapproximate energy minimization via graph cuts

[2004 PAMI] What energyfunctions can be minimized via graph cuts


10.Hough Transform

虽然霍夫变换可以扩展到广义霍夫变换,但最常用的还是检测圆和直线。这方面同样推荐看OpenCV的源代码,一目了然。Matas在2000年提出的PPHT已经集成到OpenCV中去了。

[1986 CVGIU] A Survey ofthe Hough Transform

[1989] A Comparative studyof Hough transform methods for circle finding

[1992 PAMI] Shapesrecognition using the straight line Hough transform_ theory and generalization

[1997 PR] Extraction ofline features in a noisy image

[2000 CVIU] RobustDetection of Lines Using the Progressive Probabilistic Hough Transform


11. Image Interpolation

图像插值,偶尔也用得上。一般来说,双三次也就够了

[2000 TMI] Interpolationrevisited


12. Image Matting

也就是最近,我才知道这个词翻译成中文是抠图,比较难听,不知道是谁开始这么翻译的。没有研究,请看文章以及Richard Szeliski的相关章节。以色列美女Levin在这方面有两篇PAMI。

[2008 Fnd] Image and VideoMatting A Survey

[2008 PAMI] A Closed-FormSolution to Natural Image Matting

[2008 PAMI] SpectralMatting


13.  Image Modeling

图像的统计模型。这方面有一本专门的著作Natural Image Statistics

[1994] The statistics ofnatural images

[2003 JMIV] On Advances inStatistical Modeling of Natural Images

[2009 IJCV] Fields ofExperts

[2009 PAMI] Modelingmultiscale subbands of photographic images with fields of Gaussian scalemixtures


14. Image Quality Assessment

在图像质量评价方面,Bovik是首屈一指的。这位老师也很有意思,作为编辑出版了很多书。他也是IEEE的Fellow

[2004 TIP] Image qualityassessment from error visibility to structural similarity

[2011 TIP] blind imagequality assessment From Natural Scene Statistics to Perceptual Quality


15.  Image Registration

图像配准最早的应用在医学图像上,在图像融合之前需要对图像进行配准。在现在的计算机视觉中,配准也是一个需要理解的概念,比如跟踪,拼接等。在KLT中,也会涉及到配准。这里主要是综述文献。

[1992 MIA] Image matching asa diffusion process

[1992 PAMI] A Method forRegistration of 3-D shapes

[1992] a survey of imageregistration techniques

[1998 MIA] A survey ofmedical image registration

[2003 IVC] Imageregistration methods a survey

[2003 TMI]Mutual-Information-Based Registration of Medical Survey

[2011 TIP] Hairisregistration


16. Image Retrieval

图像检索曾经很热,在2000年之后似乎消停了一段时间。最近各种图像的不变性特征提出来之后,再加上互联网搜索的商业需求,这个方向似乎又要火起来了,尤其是在工业界。这仍然是一个非常值得关注的方面。而且图像检索与目标识别具有相通之处,比如特征提取和特征降维。这方面的文章值得一读。在最后给出了两篇Book chapter,其中一篇还是中文的。

[2000 PAMI] Content-basedimage retrieval at the end of the early years

[2000 TIP] PicToSeekCombining Color and Shape Invariant Features for Image Retrieval

[2002] Content-Based ImageRetrieval Systems A Survey

[2008] Content-Based ImageRetrieval-Literature Survey

[2010] Plant ImageRetrieval Using Color,Shape and Texture Features

[2012 PAMI] A MultimediaRetrieval Framework Based on Semi-Supervised Ranking and Relevance Feedback

CBIR Chinese

fundament of cbir


17. Image Segmentation

图像分割,非常基本但又非常难的一个问题。建议看Sonka和冈萨雷斯的书。这里给出几篇比较好的文章,再次看到了J Malik。他们给出了源代码和测试集,有兴趣的话可以试试。

[2004 IJCV] EfficientGraph-Based Image Segmentation

[2008 CVIU] Imagesegmentation evaluation A survey of unsupervised methods

[2011 PAMI] ContourDetection and Hierarchical Image Segmentation


18. Level Set

大名鼎鼎的水平集,解决了Snake固有的缺点。Level set的两位提出者Sethian和Osher最后反目,实在让人遗憾。个人以为,这种方法除了迭代比较费时,在真实场景中的表现让人生疑。不过,2008年ECCV上的PWP方法在结果上很吸引人。在重初始化方面,Chunming Li给出了比较好的解决方案

[1995 PAMI] Shape modelingwith front propagation_ a level set approach

[2001 JCP] Level SetMethods_ An Overview and Some Recent Results

[2005 CVIU] Geodesicactive regions and level set methods for motion estimation and tracking

[2007 IJCV] A Review ofStatistical Approaches to Level Set Segmentation

[2008 ECCV] RobustReal-Time Visual Tracking using Pixel-Wise Posteriors

[2010 TIP] DistanceRegularized Level Set Evolution and its Application to Image Segmentation


19.Pyramid

其实小波变换就是一种金字塔分解算法,而且具有无失真重构和非冗余的优点。Adelson在1983年提出的Pyramid优点是比较简单,实现起来比较方便。

[1983] The LaplacianPyramid as a Compact Image Code


20. Radon Transform

Radon变换也是一种很重要的变换,它构成了图像重建的基础。关于图像重建和radon变换,可以参考章毓晋老师的书,讲的比较清楚。

[1993 PAMI] Imagerepresentation via a finite Radon transform

[1993 TIP] The fastdiscrete radon transform I theory

[2007 IVC] Generalisedfinite radon transform for N×N images


21.Scale Space

尺度空间滤波在现代不变特征中是一个非常重要的概念,有人说SIFT的提出者Lowe是不变特征之父,而Linderburg是不变特征之母。虽然尺度空间滤波是Witkin最早提出的,但其理论体系的完善和应用还是Linderburg的功劳。其在1998年IJCV上的两篇文章值得一读,不管是特征提取方面还是边缘检测方面。

[1987] Scale-spacefiltering

[1990 PAMI] Scale-Spacefor Discrete Signals

[1994] Scale-space theoryA basic tool for analysing structures at different scales

[1998 IJCV] Edge Detectionand Ridge Detection with Automatic Scale Selection

[1998 IJCV] FeatureDetection with Automatic Scale Selection


22. Snake

活动轮廓模型,改变了传统的图像分割的方法,用能量收缩的方法得到一个统计意义上的能量最小(最大)的边缘。

[1987 IJCV] Snakes ActiveContour Models

[1996 ] deformable modelin medical image A Survey

[1997 IJCV] geodesicactive contour

[1998 TIP] Snakes, shapes,and gradient vector flow

[2000 PAMI] Geodesic activecontours and level sets for the detection and tracking of moving objects

[2001 TIP] Active contourswithout edges


23.  Super Resolution

超分辨率分析。对这个方向没有研究,简单列几篇文章。其中Yang Jianchao的那篇在IEEE上的下载率一直居高不下。

[2002] Example-BasedSuper-Resolution

[2003 SPM] Super-Resolution Image Reconstruction A Technical Overview

[2009 ICCV] Super-Resolutionfrom a Single Image

[2010 TIP] ImageSuper-Resolution Via Sparse Representation


24. Thresholding

阈值分割是一种简单有效的图像分割算法。这个topic在冈萨雷斯的书里面讲的比较多。这里列出OTSU的原始文章以及一篇不错的综述。

[1979 IEEE] OTSU Athreshold selection method from gray-level histograms

[2001 JISE] A Fast Algorithmfor Multilevel Thresholding

[2004 JEI] Survey overimage thresholding techniques and quantitative performance evaluation


25. Watershed

分水岭算法是一种非常有效的图像分割算法,它克服了传统的阈值分割方法的缺点,尤其是Marker-Controlled Watershed,值得关注。Watershed在冈萨雷斯的书里面讲的比较详细。

[1991 PAMI] Watersheds indigital spaces an efficient algorithm based on immersion simulations

[2001]The WatershedTransform Definitions, Algorithms and Parallelizat on Strategies

2015-12-13 00:46:08 databatman 阅读数 746
今天晚上在看图像处理文献的时候,突然脑洞了一下,我们在储存图像和显示图像的时候,都是基于抽象数据,也就是他的RGB值来的,所以在图像识别的时候,我们还要特地将这种抽象数据识别成一种带有某种特征的“对象”,那如果从一开始我们在储存图像的时候,就让图像以对象的形式存储,结果会怎么样呢?例如一张风景照,我们定义里面的树,天空,草地,那是不是在后期的识别中,可以起到一个很好的作用?


然后被这个想法惊倒了,可是转念一想,计算机要怎么将这些东西识别成指定的对象呢?再一想,可以用机器学习啊!先喂数据给电脑,让他具备这种智能识别的能力不就好了,哈哈哈哈,真是不错的idea。。。但是。。。一瞬间我又突然想到,我去,这不就是专家系统做的事吗!。。。


好吧。。然后仔细想想,专家系统这玩意是被淘汰的,因为投入跟产出不成正比,让一个专家系统识别指定的特征是需要很大量的数据的,还只能识别特定领域的东西,所以才叫专家系统,某个领域的专家。


其实会想到这个,也是因为突然想到C语言过程编程到C++对象编程的转变,那是不是图像也可以从基于像素点的抽象存储转变成基于对象的存储呢?


好吧,深夜脑洞就到这了。。。可能是因为有很多东西还不太懂所以我才能YY这么多不切实际的东西吧。。啊哈

图像处理相关的重要期刊汇总

博文 来自: vs349214897
没有更多推荐了,返回首页