2018-04-18 20:02:11 Gentleman_Qin 阅读数 7613

高光谱图像处理之目标检测技术

一、高光谱图像处理之目标检测


1、高光谱图像目标检测的发展趋势和研究现状:

   20世纪80年代末,美国的一些研究机构开始利用高光谱图像数据进行目标检测方面的研究。自上世纪九十年代,国外出现了进行高光谱图像目标检测算法理论研究的研究组。由Reed和Yu提出了基于广义似然比检验的恒虚警RX 检测器(RXD)。Chang课题组提出了基于正交子空间投影的OSP检测方法, Harsanyi提出了基于约束能量最小化的CEM算法。未来高光谱目标检测的发展将会越来越重视实用性,算法的性能将会进一步提高,同时更也加适合使用FPGA硬件对其进行加速从而具有更高的实际应用价值。

2、高光谱目标检测技术的应用范围:

   高光谱目标检测具有较强的实用性,可应用于公共安全、环境检测、城市规划、食品卫生、地质岩矿的识别等众多方面。


                         图1.1 高光谱图像数据结构

3、高光谱图像数据的特点:

   高光谱图像数据“图谱合一”,具有丰富的光谱维信息。高光谱图像数据共有三个维度,如图2.1所示,其中,图像空间维信息x、y用于表示物体的实际空间分布,而光谱波段L用于表示每个像素的光谱属性。

4、高光谱图像目标检测原理:

   高光谱图像的各波段在成像范围内都是连续成像,因此高光谱的光谱曲线一般是平滑的、连续的曲线。高光谱图像的波段L中涵盖了物质的光谱信息,而每种物质的光谱信息都不一样,我们可以利用图像像素的光谱波段L所包含的特定的光谱信息来判断该像素所代表的特定的物质种类。

5、高光谱图像目标检测流程:


                    图1.2 高光谱图像目标检测流程图

   如图所示,对于拍摄得到的原始高光谱图像数据,需要先对数据进行预处理,包括数据格式化、无用数据剔除以及亮度到反射率的转化等。同时,对于遥感仪拍摄的高光谱图像还需要进行辐射校正,在目标检测前,应对数据进行调整,包括数据归一化等。最后根据已知的先验信息选择相应的目标检测算法进行检测。

6、现场可编程门阵列(FPGA)在高光谱图像处理中的应用:

   一个FPGA可以大致定义为一系列互连的逻辑块。这些器件的主要优点之一是,为了实现不同的组合或时序逻辑功能,可以根据需要多次重新配置逻辑块及其互连。这一特性为FPGA提供了软件和硬件系统的优势。因为FPGA具有比专用集成电路(ASIC)更多的灵活性和更短的开发时间,更接近GPU提供的性能,但同时功耗要比GPU低得多。FPGA供应商通过改进FPGA体系结构(包括优化的硬件模块)并利用最新的硅技术不断提升FPGA的功耗和能效。可重构性、低功耗的特点以及FPGA对空间电离辐射耐受性的提高,这些因素已经使得FPGA成为目前板载高光谱遥感的最佳选择之一。


二、算法分类、比较和选择:


1、方法分类:

   高光谱目标检测方法按照先验信息是否已知分为监督方法和非监督方法。前者用于目标光谱已知的情况下,利用目标光谱与图像像元光谱进行匹配,从而完成目标检测,比如CEM算法、OSP算法;后者多用于异常目标检测,一般不需要目标和背景的先验信息,根据高光谱图像数据获取目标检测所需要的数据,然后根据数据的大小来判断是否为异常目标,比如RXD算法。

2、CEM、OSP、RXD算法的区别:

(1)CEM(Constrained Energy Minimization)算法:

   CEM算法主要思想是设计一个FIR线性滤波器,使得在满足约束条件式的情况下滤波器的输出能量最小。该算法不需要图像的背景信息,只需要知道要检测的先验光谱信息(目标向量)即可,具体方法是通过高光谱图像数据和先验已知的待检测目标确定一个滤波向量,让图像经过该滤波向量即可得到检测结果,其中滤波向量的作用是滤除图像中的非目标像素,让感兴趣的目标能够通过,同时抑制由其他信号带来的滤波器输出能量。

(2)OSP(Orthogonal Subspace Projection)算法:

   OSP算法与CEM算法相比,最大区别在于不仅需要目标的先验知识,还需要图像中背景的先验知识,但在实际中中这些先验信息很难全部得到。在高光谱检测中我们一般用其来检测异常。该算法需要前提条件:图像信息、目标像元、非目标像元(异常目标)信息。

(3)RXD(Reed-XiaoliDetector)算法:

   RXD算法是异常目标检测领域中最基础的算法,不需要目标光谱的先验知识,而是基于背景服从多元正态分布的假设,通过检测与背景分布中心相比属于异常像元,并在这些感兴趣区域进一步查找可能存在的目标。该算法主要针对的是小目标检测问题。

(4)确定所采用的目标检测算法:

   由于我们的应用场景多为有特定目标的目标检测,CEM正是针对未知场景中可能存在的特定目标的检测,只需要知道目标的光谱信息即可,而RXD算法适应于对特定场景的异常(未知目标)检测,而OSP算法除了需要已知目标光谱还需要背景信息。综上,我决定采用CEM算法进行高光谱目标检测的实现。


三、CEM算法分析:


1、算法步骤

(1)对高光谱图像进行预处理,得到二维化和归一化后的数据r(L*N);

(2)根据图像数据r,求得图像的自相关矩阵:

               

(3)确定目标光谱向量dd大小为L*1);

(4)根据公式:


                                   

   设计FIR线性滤波器:


(5)将归一化后的数据经过FIR滤波器,得到输出信号y

           

2、问题分解:

   CEM算法的实现可分为三部分:自相关矩阵、矩阵求逆、线性FIR滤波器。


图 1.3 CEM算法分解流程图

   如图所示,首先根据高光谱图像r求得自相关矩阵,再利用矩阵求逆模块求得自相关矩阵的逆矩阵,结合从光谱库获取到的目标向量的先验信息求得FIR滤波器的滤波向量,最后将高光谱图像r通过FIR滤波器即可得到最终的检测结果。


四、CEM算法实现:


1、算法流程:

   在MATLAB和C语言中实现CEM算法的具体流程如图所示,因为语言特性是串行执行命令,所以在编写程序时与硬件设计比较更加直接明了。

图1.4 CEM算法流程图

2、数据预处理:

   对前期得到的高光谱图像在MATLAB平台上进行预处理。这一过程主要对原始的200*200*189大小的高光谱图像进行操作:

(1)二维化:通过调用MATLAB里面的reshape()函数实现。

(2)归一化:采用“min-max”方法。 具体步骤是先找到数据的最大值
(maxA)和最小值(minA), 通过 y = (x-minA) /(maxA-minA) 计算的 y 即为归一化后的数据。高光谱数据量大,也造成了数据的存储比较困难,数据在程序中的存储等处理

3、CEM算法的MATLAB实现:

   首先,根据 2 对高光谱图像数据进行预处理,而后求其自相关矩阵。高光谱图像数据的大小为200*200*189,其中200*200为像素数,189为波段数。

              

   首先用reshape()函数和transpose()函数将200*200*189的三维高光谱图像数据转为189*40000的二维矩阵,再用自己写的Normalize()函数对矩阵数据用“min-max”方法进行归一化,然后根据公式式利用MATLAB中的矩阵求转置函数transpose()和矩阵相乘操作得到一个189*189的矩阵,最后对189*189的矩阵除以像素数N即可得到自相关矩阵。

最后,根据先验已知的目标向量和自相关矩阵R的逆矩阵(在MATLAB中矩阵R求逆即为(1/R))求得FIR滤波器,将高光谱图像模拟数据通过FIR滤波器,即可得到最终的检测结果。(本次测试中选取的目标向量 d 是模拟图像中的 C 物质)

4、CEM算法的C语言实现:

   在Visual Studio平台上完成CEM算法C程序的编写。相比于MATLAB实现,CEM算法的C语言实现主要难点在于矩阵运算。因为在C语言中,矩阵的转置、相乘、求逆等操作均没有现有的函数,需要编写相应的函数。在实现矩阵基本运算过程中,通过动态分配内存运用二维指针传递参数,完成矩阵加减法运算、矩阵转置运算、矩阵相乘运算以及矩阵求逆运算,这样可以节省存储空间,使用完后释放空间即可。

CEM算法的C语言实现主要包括如下步骤:

(1)在MATLAB中,将归一化后的高光谱图像数据转为189*40000的二维形式,保存为CEM.mat;

(2)编写矩阵初始化、矩阵转置、矩阵相乘、矩阵求逆、内存释放函数;

(3)编写main函数,读CEM.mat,调用上述函数,求得FIR滤波器,进而获得输出信号y,将其写入CEM.txt;

(4)在MATLAB中显示CEM.txt中数据所代表的图像。

5、难点解决:

(1)矩阵转置

   矩阵转置函数的输入是大小为m*n的矩阵A,输出是大小n*m为的矩阵B。采用嵌套的for循环分别遍历矩阵的行和列,将输入的二维矩阵A按列读出,重新按行写入新矩阵B中,即可实现矩阵的转置。

(2)矩阵相乘

   矩阵相乘函数的输入是大小m*n为的矩阵A和n*k的矩阵B,输出是大小为m*k的矩阵C。采用嵌套的for循环分别遍历矩阵的行和列,首先将矩阵A按行读出,矩阵B按列读出,然后将读出的矩阵A的第i行和矩阵B的第j列对应位相乘求和,将计算的结果写入矩阵C第i行第j列元素中。

(3)矩阵求逆——QR分解求逆

   QR分解求逆的原理是:对于可逆矩阵A,首先利用QR分解将A矩阵分解为Q矩阵和R矩阵。即A=QR,其中Q是正交矩阵,R是上三角矩阵。然后将公式左右同时求逆,可以求得A的逆矩阵,其中Q矩阵的逆矩阵和转置矩阵相同,R求逆有特定的公式。QR分解求逆的运算较为简单,且数据稳定度较高,可以得到误差较小的求逆结果。

6、算法实现结果和对比分析:

1)MATLAB和C语言实现CEM算法的检测结果如图所示:

       

      (a)               (b)            (c)

图1.6 原图CEM算法检测结果:(a)原图(每一行是一种物质)(b)MATLAB检测C物质(c)C语言检测C物质

 

通过对MATLAB和C语言实现结果进行对比,发现二者均成功实现了CEM算法并完成了对目标的检测,观察检测结果基本无差异。

######### 转载请注明出处:https://blog.csdn.net/Gentleman_Qin/article/details/79992314 #########


2018-04-25 21:27:34 hczhcz0905 阅读数 355

1:传统目标监测方法介绍


传统目标监测方法流程图:


2:卷积神经网络在目标分类中的应用





3:卷积神经网络在目标监测中的应用









2016-09-08 13:29:08 Real_Myth 阅读数 14833

图像检测技术的研究现状

技术检测

图像处理知识库 · 2016-01-08 19:59

图像检测技术的研究现状

图像检测技术的研究现状

所谓图像检测,就是通过图像对感兴趣的特征区域(检测目标)进行提取的过程,其中图像是承载检测目标的载体,检测目标需要事先进行特征提取、归纳,最终通过相应算法分离出来。

图像检测方法可分为单帧图像检测和多帧图像检测。单帧图像检测主要是利用图像的灰度信息对目标进行分割,主要包括基于灰度阈值的目标检测方法和基于边缘信息的目标检测方法。

多帧图像检测通过序列图像的变化特征实现对目标的提取,主要用于运动目标的检测,大体包括:基于像素分析的方法、特征检测的方法和基于变换的方法。本文主要对单帧图像的检测方法进行详述。

1、基于灰度阈值的目标检测

基于灰度阈值的目标检测是根据目标灰度与背景灰度的不同,通过选取合适的阈值将图像二值化,使得目标从背景中分离出来的过程。显然,阈值的选取是目标检测的关键,同样也是目标检测的难点,如何能得到合适的灰度阈值,最大程度的将目标提取出来,并消除背景的干扰,这一直是研究的热点。根据阈值选取数量的不同,基于灰度阈值的目标检测方法又可分为单阈值目标检测和多阈值目标检测。

单阈值目标检测适合于噪声少、照度均匀、目标和背景灰度值相差较明显的情况。最常用的方法有直方图分析法、迭代分割法。直方图分析法是多种空间域处理技术的基础,在目标相比背景比较突出的情况下,直方图会有明显的双峰现象,两峰之间的谷点即为最佳阈值,这种阈值选取方法又称为峰谷法。峰谷法主要在理想情况下对阈值进行选取,现实中采集图像的直方图经常会有峰值悬殊极大或宽平谷底的情况,一般需要通过分析直方图的凹形来确定一个较理想的全局阈值迭代分割法的实现过程是:首先对初始图像的最大灰度值和最小灰度值取平均,得到初始阈值T0;其次根据阈值T0将图像分为前景与背景,分别求得前景灰度平均值Vq和背景灰度平均值Vb,并对两者取平均得到T1;通过T1再次将图像分为前景与背景,通过对前景灰度平均值和背景灰度平均值取平均得到T2;如此往复,当|Tk+1-Tk|<ε时(ε为一无穷小常数),我们认为Tk为最终阈值。迭代分割方法得到的阈值处在与前景和背景区域的重心成反比的位置,因此从路径规划的角度可看做一种最优阈值。此外,单阈值分割方法中还有最大类间方差法,最大熵分割法,贝叶斯分割法。其中,最大类间方差法通过寻找一个阈值,使分割后目标和背景之间的方差最大,仅适用于目标和背景所占比例相差不大的情况。最大熵分割法通过在规定的分布集合中寻找熵值最大者作为真实分布的一种判断,一般情况下由于推测分布与实际分布差距较大,错分率较大。贝叶斯分割法要求精确估算目标和背景先验概率,由于实际中采集图像存在大量噪声,处理效果会与预想差距较大。

多阈值分割方法是将图像分为多个具有不同区域特征的分块,在这些分块中分别采用不同的阈值对图像进行分割的方法。相比单阈值分割,它能够兼顾图像各处的情况,在有突发噪声、照度不均、各处对比度不同时对图像进行有效分割,特别是在目标和背景的灰度有梯度变化时效果最为明显。

2、基于边缘信息的目标检测

图像的边缘包含了用于识别的有用信息,是图像分割所依赖的重要特征。边缘信息包含的往往是图像中最重要的信息,通常情况下边缘附近灰度值会发生剧烈变化,基于边缘信息的目标检测就是根据这一特征对目标的边缘进行检测,进而实现目标的定位。边缘检测最为通用的方法是检测亮度的不连续性,这样的不连续主要通过求一阶导数和二阶导数得到检测,若找到亮度的一阶导数在幅值上比指定的阈值大或二阶导数有零交叉的位置,可将其识别为边缘。基于边缘信息的目标检测方法大体包括:梯度算子检测、最优算子检测、多尺度信号处理方法、自适应平滑滤波法以及利用其它数学工具的边缘检测方法。

梯度算子检测是最基本的边缘检测方法,主要通过计算模板系数与所包围区域内灰度级的乘积之和,并与设定阈值T比较实现。一般情况下,设定的模板系数总和为零,在灰度不变的区域,模板响应也为零,而在灰度变化的区域,模板响应不为零,梯度算子就是依据这一特点对图像进行检测的。梯度算子主要包括Roberts算子、Sobel算子、Prewitt算子、Laplacian算子等。Roberts算子是数字图像中最简单的算子,经常用于图像检测的硬件实现中,不足之处是功能有限(如不能检测45倍数的边缘)。Sobel算子和Prewitt算子是在实践中计算数字梯度时最常用的,基于Prewitt算子的图像检测相比Sobel算子在计算上要简单一些,但基于Sobel算子的图像检测在噪声抑制特性方面略胜一筹。Laplacian算子一般不以其原始形式用于边缘检测,主要原因是:作为一个二阶导数,它对噪声具有无法接受的敏感性,幅值产生双边缘且不能检测边缘方向,这些均是图像检测过程中不希望有的结果。

最优算子检测是在传统算子的基础上发展起来的边缘检测方法,主要有LOG(Laplacian of a Gaussian)算子、Canny算子以及基于曲面拟合的边缘检测算法。

LOG算子为高斯型的Laplacian算子,它将高斯型平滑函数与Laplacian算子相结合, 首先对图像进行平滑处理,然后使用Laplacian算子产生双边缘图像,最后通过找到两个边缘之间的零交叉定位边缘。其中,图像的平滑处理不仅减小了噪声的影响,还抵消了由Laplacian算子的二阶导数引起的逐渐增加的噪声影响,为Laplacian算子在边缘检测中发挥作用提供了有力的条件支持。采用LOG算子进行图像检测的优点是抗干扰能力强,边界定位精度高,连续性好,且能提取出对比度弱的边界;不足之处是当边界宽度小于算子宽度时,零交叉处的斜坡发生融合,小于2✔2σ(σ为标准差)的区域边界细节会丢失。

Canny算子的基本思想是把边缘检测问题转换为检测单位函数的极大值问题,它根据边缘检测对好的信噪比与定位性能、边缘响应唯一性的要求,采用最优化数值方法,得到了对应给定边缘类型的最佳边缘检测模板。基于曲面拟合的边缘检测算法的基本思想是用一个平滑曲面与待测点周围某邻域内像素的灰度值进行拟合,在此基础上计算曲面的一阶或二阶导数。最早采用曲面拟合对图像进行边缘检测的是Prewitt,他首先采用最小二乘法用n阶多项式对原始图像拟合,然后用梯度算子在拟合曲面上进行边缘检测,取得了较理想的效果。Haralick在一个规则对称领域构造了正交多项式,对图像每一像素邻域灰度变化作曲面拟合,再用二阶方向导数的零交叉检测阶跃边缘,算法精度有较大提高,但由于正交多项式基构造过程复杂,灵活性差,不易表达复杂边界形状,应用受到了限制。

多尺度图像检测方法是在尺度空间滤波理论的基础上发展起来的,它不仅可以辨识出信号中的重要特征,而且能以不同细节程度对信号进行重构,在高级视觉处理中有广泛的应用。多尺度图像检测方法主要包括边缘聚焦和小波变换。边缘聚焦的基本思想是用一个很强的平滑在低分辨率下检测出重要边缘,再减弱平滑强度进行跟踪聚焦以确定其准确位置。它的特点是:可不使用阈值,所需计算量与最粗分辨率尺度上的计算量相同,很好的将定位的高精度与良好的噪声抑制结合起来。小波变换具有本质的多尺度特性,它能把图像信号分解成不同尺度上的多个分量,对图像进行多分辨率分析;利用小波变换进行多尺度边缘检测,能提高定位目标的准确度,取得良好的检测效果。20世纪80年代,在多分辨率理论中,小波首次作为分析基础出现。接着Mallat首次将小波变换用于信号奇异点的检测,奠定了小波在信号检测方面应用的基础[18]。在小波变换基础上发展起来的最新理论有1999年Donoho等人提出的curvelet变换,相比以往的小波变换在图像增强与去噪方面有了很大的提高。至今小波变换仍是学术界讨论的热点,在图像处理中也发挥着越来越重要的作用。

自适应平滑滤波是一种变尺度边缘检测方法,它的基本思想是用一个随像素点的梯度变化的平均模板与待平滑的信号进行迭代卷积。其中,模板函数以k为尺度变化参数,该参数控制了迭代过程中所要保留的突变点幅度,保证了在不同尺度下边缘检测的正确性。自适应平滑滤波方法通过自适应迭代平滑提高了图像的信噪比;在边缘检测之前对图像进行平滑滤波迭代运算,提高了边缘定位精度;相比其它边缘检测方法,在图像检测过程中具有很强的自适应能力。

除上述方法之外,许多学者一直致力于将各种数学思想引入图像的边缘检测中。20世纪80年代,Pal和King将模糊集理论与边缘检测相结合,提出了图像边缘检测模糊算法,该算法可对图像中的背景和目标进行有效的分离,成功应用在了模式识别与医疗图像处理领域。近年来,基于神经网络的边缘提取方法已成为一个重要的研究热点,其中基于BP网络的边缘检测方法已在许多领域得到应用。数学形态学引入图像处理,解决了噪声抑制、特征提取等问题。遗传算法作为一种优化算法也成功运用在边缘检测中。

2016-05-06 22:13:20 Solomon1558 阅读数 13632

面向医学图像分析的深度学习研究方案

这是一篇有关“深度学习在医学图像处理方面”的研究报告的第一节,主要包含研究对象,常用方法,深度学习简介,研究现状,研究重点。
在撰写报告时,我找到了两篇 Deep learning in BioInformation / BioMedicine 的综述文章,也一并分享出来:
Deep Learning in Bioinformatic
Applications of deep learning in biomedicine

1. 研究背景及意义

医学图像分析是综合医学影像、数学建模、数字图像处理、人工智能和数值算法等学科的交叉领域。医学图像主要包括超声、X射线计算机断层摄影(CT)、核磁共振(MRI)、数字血管剪影(DSA)、正电子断层摄影(PET)等。在医学图像分析领域,主要有图像分割,图像配准与信息融合,时序图像分析和基于内容的图像检索等研究方向。随着医学影像技术的快速发展,医学图像分析步入大数据时代,如何从海量医学图像数据中挖掘出有用知识,从而为临床诊疗和科学研究提供更充分的依据,已经成为了学术界和工业界的研究热点。
机器学习方法被广泛用于医学图像分析,通过在给定数据集上训练模型来完成新数据上的特定任务,比如分类、识别和分割等。常用的算法有支持向量机(SVM),隐马尔科夫(HMM)以及人工神经网络等。然而,传统的机器学习算法需要利用先验知识从原始数据中人工提取特征,从而训练模型。由于特征选取难度较大,模型可能存在过拟合问题,泛化能力难以保证;另一方面,传统模型难以适应大规模数据集,模型可扩展性差。
深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习。深度学习是一种数据驱动型模型,能够模拟人脑视觉机理自动地学习到数据各个层次的抽象特征,从而更好地反映数据的本质特征。深度神经网络的研究自2006年Hinton提出一种基于概率图模型的多层受限玻尔兹曼机级(RBM)结构后得到进一步发展,近年来深度学习在视觉处理、语音处理、自然语言处理、信息检索等大数据应用领域都取得了相应成功。深度学习模型在各个领域的良好效果引发了在更多领域利用该技术进行数据挖掘和分析的热潮,在医学和生物认知领域也引起了重视。目前深度学习已经开始涉足医学图像的病变分类[1-3]、分割[4-5]、识别[6]以及大脑功能研究[7]等方面。深度学习创业公司Enlitic研制基于深度学习的癌症检测系统,在胸部CT图像上的肺癌检出率超过医生。[8]IBM提出Watson for Oncology,通过学习大量数据和经验,从而分析病人的医学信息,帮助医生制定可靠的医疗方案。[9] 研发出AlphaGo的Google子公司DeepMind近日宣布DeepMind Health项目,使用深度学习进一步开发有效的医疗保健科技。[10]
计算复杂性已成为深度神经网络研究与应用的最大障碍,深度神经网络必须采用新型硬件结构有效实现才能发挥其实际作用。深度神经网络算法具有典型的计算密集型应用特征,速度瓶颈日益成为深度神经网络理论研究与应用开发的障碍。同时,随着网络层数和每层神经元个数的增加,其计算复杂度将随系统规模呈指数趋势增长。本文主要提出深度学习算法在医学图像分析上的研究方案,针对具体任务构建深度神经网络,在提高效果的同时,根据体系结构特征优化其实现,从而实现深度神经网络在效果和性能上的提升。

1 Plis SM, Hjelm DR, Salakhutdinov R et al. Deep learning for neuroimaging: a validation study. Frontiers in neuroscience 2014;8.
2 Li Q, Cai W, Wang X et al. Medical image classification with convolutional neural network. In: Control Automation Robotics & Vision (ICARCV), 2014 13th International Conference on. 2014. p. 844-8. IEEE.
3 Ypsilantis P-P, Siddique M, Sohn H-M et al. Predicting Response to Neoadjuvant Chemotherapy with PET Imaging Using Convolutional Neural Networks. PloS one 2015;10(9):e0137036.
4 Turaga SC, Murray JF, Jain V et al. Convolutional networks can learn to generate affinity graphs for image segmentation. Neural Computation 2010;22(2):511-38.
5 Roth HR, Lu L, Farag A et al. Deeporgan: Multi-level deep convolutional networks for automated pancreas segmentation. Medical Image Computing and Computer-Assisted Intervention–MICCAI 2015. Springer, 2015, 556-64.
[6] Roth HR, Lu L, Seff A et al. A new 2.5 D representation for lymph node detection using random sets of deep convolutional neural network observations. Medical Image Computing and Computer-Assisted Intervention–MICCAI 2014. Springer, 2014, 520-7.
[7] Koyamada S, Shikauchi Y, Nakae K et al. Deep learning of fMRI big data: a novel
approach to subject-transfer decoding. arXiv preprint arXiv:1502.00093 2015.
[8] Enlitic technology detected lung cancer nodules in chest CT images
http://www.enlitic.com/science.html#deep-learning.
[9] IBM Watson for Oncology. IBM.
http://www.ibm.com/smarterplanet/us/en/ibmwatson/watson-oncology.html ,2016.
[10] DeepMind Health. Google DeepMind. https://www.deepmind.com/health , 2016.

2017-12-21 10:47:36 IT_job 阅读数 3221

近期在准备研究生选题资料查找,在网上看到有人推荐了一些文章,自己以前看过下面的两篇,然后把其他的也下载下来大致看了一下,后续准备仔细看下下面这些大牛的文章,这些都是中文的,后面再找英文文献。

 

博士论文

 

1《图像去雾方法和评价及其应用研究》作者郭璠,指导老师蔡自兴 中南大学,2012年5月答辩论文

文章框架为单幅图像去雾处理、视频去雾处理、构建去雾效果的客观评价体系、去雾技术在实际中的应用(交通环境)展开研究。提出了一种基于传播图梯度优先规律的去雾方法。提出了一种基于傅里叶振幅谱特性雾天检测方法,提出了两种基于雾气理论的视频去雾算法。

 

2《图像快速去雾与清晰度恢复技术研究》作者嵇晓强,指导老师戴明,中国科学院,2012年5月答辩论文

文章针对雾天图像的退化问题,详细分析了雾天图像退化原因和模糊机理,对雾天降质图像去雾处理的基础理论和关键技术进行了深入的研究,并从非模型和基于模型两个方面对图像进行去雾处理。论文对已有的图像去雾方法进行完善、改进和引入新思路(改进了retinex算法、暗原色算法、提出自己的方法以及搭建了基于FPGA的系统硬件平台)。

 

3《图像去雾算法研究》作者任福东,指导老师于银辉,吉林大学,2015年12月答辩论文

文章总结了图像去雾技术的国内外研究现状,分析了图像增强的去雾算法中各种算法的优势和不足,进行了仿真实验,以及这些算法对雾天图像处理的适用范围。基于大气散射模型的图像去雾的优点与不足,进行了仿真实验。

 

4《图像实时复原技术的研究与应用》作者贾格,指导老师付承毓、彭先蓉,中国科学院大学,2016年5月答辩论文。

文章主要基于快速复原算法和高速实现两个方向展开。研究常见的降质模型和快速复原算法,研究基于概率模型的图像盲复原算法,提出了基于SeDDaRA算法的乘性迭代方法,提出基于双尺度的暗通道去雾复原算法,研究用高级语言进行FPGA设计的开发工具Impluse C,研究OpenCL技术,利用GPU平台提高图像复原算法的速度。

 

期刊

 

1《图像去雾的最新研究进展》作者吴迪,朱青松,中国科学院,发表时间2015年2月

文章归纳总结了两大类图像去雾方法: 基于图像增强和基于物理模型的方法, 深入探讨了其中的典型算法和研究成果, 并对这些算法的测试结果进行了定性和定量的分析比较,最后总结了图像去雾技术目前的研究状况和未来的发展方向.

 

2《图像去雾技术研究进展》作者禹晶,徐东彬,廖庆敏,清华大学,发表时间2015年2月

本文归纳和总结了图像去雾技术的国内外研究现状。将现有的方法分为基于物理模型和非物理模型两类,分别详细阐述了这两类方法,分析它们各自的优势和不足,并总结了算法性能评价的无参考客观质量评测准则。最后,指出该技术的研究难点和发展趋势。

 

3《图像去雾技术研究综述与展望》作者郭璠,蔡自兴,谢斌,唐琎,发表时间2010年9月

文章通过从图像处理和物理模型的研究角度对图像去雾技术进行综述,综合了近年来提出的典型的图像去雾方法的基本原理和最新研究进展,并对一些典型的及最新提出的去雾方法,给出了其视觉上的去雾效果和客观的评估数据。最后展望了图像去雾技术的未来研究方向,并给出了一些建议。她的博士论文中提过本文中的相关内容。

没有更多推荐了,返回首页