精华内容
下载资源
问答
  • 一种基于梯度图像帧间差分和背景差分的运动目标检测新方法,张起贵,杜永峰,图像运动目标检测在视频监控中占有重要地位。文章介绍了一种视频监控中运动目标检测的新算法。其特点是:先利用五帧梯度图像的差
  • 采用模糊梯度方法对灰度焊接图像中的缺陷进行边缘检测。...根据梯度值的分布特点,确定边缘点的隶属度函数,从梯度图像数据中提取有效数据对隶属度函数参数进行计算,并对焊接缺陷边缘检测,得到较好的效果。
  • 在水下激光成像系统中,针对海水对光的散射而引起的图像对比度下降的特点提出了一种自适 应改变图像梯度来...最后通过解泊松方程,将处理后的梯度图像还原成灰度图像。实验结果表明:该算法能有效地改善水下图像的对比度。
  • 在分析文本行特点的基础上,提出了一种利用水平梯度差进行文档图像的文本行检测算法。该算法首先对输入的文档图像进行水平梯度差计算,然后在局部窗口中求解最大梯度差并进行文本行区域的合并,通过非文本区域过滤来...
  • 本文利用B样条滤波具有阶数可调的特点,根据图像的噪声值选取不同阶数B样条滤波,在降噪的同时最大程度的保留图像梯度信息以提高识别率。实验证明,基于B样条和图像梯度的算法在单样本人脸识别问题上识别率优于传统...
  • 针对在目标检测中现有方法检测速度慢的问题,基于航拍图像中人造物体含有大量边缘的特点,提出了一种基于梯度聚类的区域建议算法(APM)。利用目标检测算法对提取的感兴趣区域进行检测,在DOTA (Dataset for Object ...
  • 通过介绍小波域不同融合方法的特点,提出一种小波域梯度的改进算法,对多焦距图像采用双正交小波进行分解,对小波系数根据小波域平均梯度进行加权叠加,并通过仿真证明本算法具有很好的效果。
  • 在当前人眼视觉系统(HVS)特性研究的基础上提出基于梯度及HVS特性的离焦模糊图像质量评价模型...该方法与SSIM(图像结构相似度)评价模型相比,具有计算简单的特点,对离焦模糊图像的评价结果能更好地反映人眼视觉感受。
  • 针对闪光照相系统成像信噪比低的特点,提出了正则化预优约束共轭梯度算法(RPCCG)。 RPCCG算法在闪光照相重建方程中引入Tikhonov正则化准则,利用预优约束共轭梯度法迭代求图像重建的 最优解。数值试验表明,采用最小...
  • 金文图像识别的关键步骤是提取金文的图像特征,针对金文的形态特点,提出了一种基于方向梯度直方图(HOG)和灰度共生矩阵(GLCM)的金文图像识别算法。使用双边滤波对金文图像进行预处理,针对金文的结构特征和局部纹理特征...
  • 针对传统非抽样小波变换算法较复杂的缺点,结合空、频域处理上的特点,提出了一种基于快速非抽样小波变换的多聚焦图像融合算法。与之前基于非抽样小波变换的融合算法不同,该算法取消了反变换,它根据高频小波系数...
  • 梯度幅度相似性偏差(Gradient Magnitude Similarity Deviation)是2014年zhang lei等人在论文《Gradient Magnitude Similarity Deviation: A Highly Efficient Perceptual Image Quality Index》提出的一种图像全参考...

    梯度幅度相似性偏差(Gradient Magnitude Similarity Deviation)是2014年zhang lei等人在论文《Gradient Magnitude Similarity Deviation: A Highly Efficient Perceptual Image Quality Index》提出的一种图像全参考评价(FR-IQA)方法,具有准确度高、计算量少的特点。

    • 原理简介
      梯度幅值能够反映结构信息,仅使用梯度幅值作为特征就能产生准确度较高的图片质量预测分数。自然图像往往有着丰富类型的局部结构,不同的结构在失真中会有不同的梯度幅值退化。基于局部质量退化在图像全局上的变化可以反映图像的质量这一观点,文章提出了计算局部梯度幅值相似性来衡量局部图像质量,计算局部图像质量的标准差来衡量图像全局的质量。
      1.计算局部梯度幅值相似性
      作者使用Prewitt算子计算图像梯度,使用其他算子如 Sobel and Scharr 得到的效果相似。
      在这里插入图片描述
      然后计算梯度幅值mr、md:
      在这里插入图片描述
      梯度幅值相似性(GMS)如下:
      在这里插入图片描述
      c是一个常数,作用是为了防止分母为0.
      2.标准差池化
      SSIM等方法使用的是平均池化方法,这种方法计算简便,认为图像每块区域的质量对全局质量的贡献相同。也有研究人员提出加权池化的方法,但是这种方法对效果提升作用不大且提高了计算量。自然图像具有丰富的结构,不同结构对于失真的响应不同,如模糊在“平坦”部位的影响就比在“纹理”部位的影响小。基于局部质量退化在图像全局上的变化可以反映图像的质量这一理念,文章提出了 Standard Deviation Pooling。
      在这里插入图片描述

    • 代码实现
      在实验应用中,文章首先使用2x2均值滤波器分别对原始图像和失真图像进行滤波,然后进行间隔为2的下采样。

    论文的MATLAB源码如下:

    function [score, quality_map] = GMSD(Y1, Y2)
    
    % GMSD - measure the image quality of distorted image 'Y2' with the reference image 'Y1'.
    % 
    % inputs:
    % 
    % Y1 - the reference image (grayscale image, double type, 0~255)
    % Y2 - the distorted image (grayscale image, double type, 0~255)
    % 
    % outputs:
    
    % score: distortion degree of the distorted image
    % quality_map: local quality map of the distorted image
    
    % This is an implementation of the following algorithm:
    % Wufeng Xue, Lei Zhang, Xuanqin Mou, and Alan C. Bovik, 
    % "Gradient Magnitude Similarity Deviation: A Highly Efficient Perceptual Image Quality Index",
    % http://www.comp.polyu.edu.hk/~cslzhang/IQA/GMSD/GMSD.htm
    
    T = 170; 
    Down_step = 2;
    dx = [1 0 -1; 1 0 -1; 1 0 -1]/3;
    dy = dx';
    
    aveKernel = fspecial('average',2);
    aveY1 = conv2(Y1, aveKernel,'same');
    aveY2 = conv2(Y2, aveKernel,'same');
    Y1 = aveY1(1:Down_step:end,1:Down_step:end);
    Y2 = aveY2(1:Down_step:end,1:Down_step:end);
    
    IxY1 = conv2(Y1, dx, 'same');     
    IyY1 = conv2(Y1, dy, 'same');    
    gradientMap1 = sqrt(IxY1.^2 + IyY1.^2);
    
    IxY2 = conv2(Y2, dx, 'same');     
    IyY2 = conv2(Y2, dy, 'same');
    
    gradientMap2 = sqrt(IxY2.^2 + IyY2.^2);
    quality_map = (2*gradientMap1.*gradientMap2 + T) ./(gradientMap1.^2+gradientMap2.^2 + T);
    score = std2(quality_map);
    

    python实现如下:

    import cv2
    import numpy as np
    import time
    from numba import jit,njit
    #实现卷积操作
    @jit
    def convolution(img,kernal):
        new_arr = kernal.reshape(kernal.size)
        new_arr = new_arr[::-1]
        kernal = new_arr.reshape(kernal.shape)
    
        kernal_heigh = kernal.shape[0]
        kernal_width = kernal.shape[1]
    
        cor_heigh = img.shape[0] - kernal_heigh + 1
        cor_width = img.shape[1] - kernal_width + 1
        result = np.zeros((cor_heigh, cor_width), dtype=np.float64)
        for i in range(cor_heigh):
            for j in range(cor_width):
                result[i][j] = (img[i:i + kernal_heigh, j:j + kernal_width] * kernal).sum()
        return result
    
    def gmsd(dis_img,ref_img,c=170):
        hx=np.array([[1/3,0,-1/3]]*3,dtype=np.float64)#Prewitt算子
        ave_filter=np.array([[0.25,0.25],[0.25,0.25]])#均值滤波核
        down_step=2#下采样间隔
        hy=hx.transpose()
        #均值滤波
        ave_dis=convolution(dis_img,ave_filter)
        ave_ref=convolution(ref_img,ave_filter)
        #下采样
        ave_dis_down=ave_dis[np.arange(0,ave_dis.shape[0],down_step),:]
        ave_dis_down=ave_dis_down[:,np.arange(0,ave_dis_down.shape[1],down_step)]
        ave_ref_down=ave_ref[np.arange(0,ave_ref.shape[0],down_step),:]
        ave_ref_down=ave_ref_down[:,np.arange(0,ave_ref_down.shape[1],down_step)]
        #计算mr md等中间变量
        mr_sq=convolution(ave_ref_down,hx)**2+convolution(ave_ref_down,hy)**2
        md_sq=convolution(ave_dis_down,hx)**2+convolution(ave_dis_down,hy)**2
        mr=np.sqrt(mr_sq)
        md=np.sqrt(md_sq)
        GMS=(2*mr*md+c)/(mr_sq+md_sq+c)
        GMSM=np.mean(GMS)
        GMSD=np.mean((GMS-GMSM)**2)
        return GMSD
    

    与上面MATLAB代码不同的是,这里的二维卷积实现的是‘valid’模式。

    展开全文
  • 各种激活函数, 图像, 导数及其特点

    千次阅读 2020-08-24 09:09:43
    文章目录sigmoid特点缺点sigmoid导数tanh特点导数Relu导数优点缺点Leaky Relu(PRelu)导数特点ELU导数特点SELU导数特点SoftMax导数特点 ...在深度神经网络中梯度反向传播是容易造成梯度爆炸和梯度消失 sigmoid导数 f


    本人博客: https://xiaoxiablogs.top

    sigmoid

    f(z)=11+ez f(z)=\frac1{1+e^{-z}}

    其图像如下:

    sigmoid

    特点

    • 能够将输入的连续实值变换为0到1之间的输出

    缺点

    • 在深度神经网络中梯度反向传播是容易造成梯度爆炸和梯度消失

    sigmoid导数

    f(z)=ez(1+ez)2=11+ez1(1+ez)2 f'(z) = \frac{e^{-z}}{(1+e^{-z})^2} = \frac1{1+e^{-z}} - \frac1{(1+e^{-z})^2}

    其导数图像如下:

    d_sigmoid.png

    tanh

    tanh(x)=exexex+ex tanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}}

    其图像如下:

    tanh.png

    特点

    解决了sigmoid函数不是zero-centered的问题, 但是梯度消失依旧存在

    导数

    tanh(x)=1tanh(x)2=1(exexex+ex)2 tanh'(x)=1-tanh(x)^2 = 1 - (\frac{e^x-e^{-x}}{e^x+e^{-x}})^2

    导数图像

    d_tanh.png

    Relu

    Relu(x)=max(0,x) Relu(x)=max(0, x)

    函数图像

    relu.png

    导数

    Relu(x)={0x01x>0 Relu'(x) = \begin{cases} 0& x\leq 0\\ 1& x> 0 \end{cases}

    d_relu.png

    优点

    • 解决了梯度消失问题
    • 计算速度非常快
    • 收敛速度远快于sigmoid和tanh

    缺点

    • 输出的不是zero-centered
    • 有些神经元可能永远不会被激活(Dead ReLU)
      • 不好的参数初始化
      • 学习率过高, 导致网络不幸进入这种情况

    Leaky Relu(PRelu)

    f(x)=max(αx,x) f(x) = max(\alpha x, x)

    函数图像α=0.1\alpha=0.1

    prelu.png

    导数

    f(x)={αx01x>0 f'(x) = \begin{cases} \alpha& x\leq0\\ 1& x> 0 \end{cases}

    图像

    d_prelu.png

    特点

    • 具有ReLU的所有优点
    • 不会有Dead ReLU问题

    ELU

    f(x)={xx>0α(ex1)x0 f(x)= \begin{cases} x& x>0\\ \alpha(e^x-1)& x\leq0 \end{cases}

    函数图像α=1\alpha=1

    elu.png

    导数

    f(x)={1x>0f(x)+α=αexx0 f'(x)= \begin{cases} 1&x>0\\ f(x)+\alpha = \alpha e^x& x\leq0 \end{cases}

    图像α=1\alpha=1

    d_elu.png

    特点

    • 类似于Leaky ReLU
    • 计算量稍大
    • 不会有Dead ReLU问题
    • 均值接近于0

    SELU

    selu(x)=λ{xx>0αexαx0λ=1.0507009873554804934193349852946α=1.6732632423543772848170429916717 selu(x) =\lambda \begin{cases} x& x>0\\ \alpha e^x-\alpha& x\leq0 \end{cases}\\ 其中\lambda=1.0507009873554804934193349852946\\ \alpha=1.6732632423543772848170429916717

    函数图像

    selu.png

    导数

    selu(x)=λ{1x>0αex selu'(x)=\lambda \begin{cases} 1& x>0\\ \alpha e^x \end{cases}

    图像:

    d_selu.png

    特点

    • 在ELU的基础上求解了最佳的α\alpha , 并且扩大了λ\lambda倍,
    • SELU拥有ELU所有的优点
    • 不存在死区

    SoftMax

    f(xi)=exij=1nexj f(x_i)=\frac{e^{x_i}}{\sum_{j=1}^ne^{x_j}}

    简单地说, 就是当前元素的值就等与e的当前元素次方在所有元素的e的次方和的比例

    导数

    ,LOSS=itilnyi,,tii,ti=1,LOSS=lnyisoftmax1,exij=1nexj,Loss(1ijnexijnexj)=yi1 当交叉熵作为损失函数时, LOSS=-\sum_it_ilny_i, 其中, t_i表示真实值 \\当预测第i个时, 可以认为t_i=1, 那么LOSS=-\sum lny_i\\因为softmax的和为1, 那么\frac{e^{x^i}}{\sum_{j=1}^ne^{x_{j}}},对Loss求导后为-(1-\frac{\sum^n_{i\neq j}e^{x_i}}{\sum^n_je^{x_j}})=y_i-1

    也就是说, 只要求出jij_i, 那么减一就是梯度.

    特点

    • Softmax会将整个超空间按照分类个数进行划分

    • Softmax会比其他的激活函数更适合多分类问题最后的激活

    展开全文
  • 在人眼区域分割(1)中,对人脸图片求水平投影曲线(也叫IPF),其反映的是每行像素和的变化曲线,即反应了整体的灰度变化,并没有反映眼睛局部灰度变化明显的特点,所以在曲线中不能唯一而又准确的显示眼睛的位置,...
    
    ## 人眼区域分割(2)
    

    在人眼区域分割(1)中,对人脸图片求水平投影曲线(也叫IPF),其反映的是每行像素和的变化曲线,即反应了整体的灰度变化,并没有反映眼睛局部灰度变化明显的特点,所以在曲线中不能唯一而又准确的显示眼睛的位置,若想找到眼睛,则必须要良好的滤波。对于此,采用了其他的投影方法,并通过该曲线来截取人眼区域。

    目录:

    一、梯度积分投影

    其实我们用sobel算子计算人脸水平梯度图像,很容易发现,眼睛这一区域局部灰度变化明显。这也从侧面验证了计算梯度图的投影曲线的正确性。首先我们生成尺度不变行梯度算子,用该算子与图像进行卷积运算,再对图像进行水平投影计算。
    1. 生成尺度不变梯度算子

    L=round(n/100)∗2+1L=round(n/100)*2+1L=round(n/100)2+1

    其中n是图像的宽度,L为该算子的长度,该算子的形式为下:

     ![这里写图片描述](https://img-blog.csdn.net/20171130205543668?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvemh1bGluemh1bGlubGlu/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
    

    尺度不变梯度算子长度应该跟随图片的宽度而变化,即图片宽度除以的数字是可以改变的,例如图片宽度不足100,则可除以10,再乘以2加1。

    1. 卷积运算

    用该算子与图片进行卷积运算,注意遍历图像进行计算时行列的初始值

    代码:

    //卷积,卷积后的梯度图片保存到test中
    	int border = len / 2;//len为尺度不变行梯度算子的长度
    	Mat test(Gauss.size(), Gauss.type(), Scalar(0));
    	uchar *t = test.data;
    	uchar *g = Gauss.data;
    	int step = Gauss.step[0];
    	double sum = 0; 
    	for (int i = 0; i < rows; i++)
    	{
    		for (int j = border; j < cols - border; j++)
    		{
    			sum = 0;
    			for (int k = -border; k <= border; k++)
    			{
    				sum += Scale[border+k] * g[i*step + j+k];
    			}
    			//一定要做饱和处理
    			if (sum > 255)sum = 255;
    			if (sum < 0)sum = 0;
    			t[i*step + j] = sum;
    		}
    	}
    

    结果图:从图片也可以看出,水平方向上眼睛梯度值较大而且滤去了眉毛的影响。

    这里写图片描述

    3 计算水平灰度曲线

    	// 这里计算了上半张图的投影曲线(rows/2)
    	vector<int>curve(rows / 2);
    	for (int i = 0; i < rows / 2; i++)
    	{
    		curve[i] = 0;
    		for (int j = 0; j < cols; j++)
    		{
    			uchar *p = test.data + i*test.step[0] + j;
    			curve[i] += *p;
    		}
    	}
    

    二、分析投影曲线

    1. 画出该投影曲线

    SouthEastSouthEast

    其实曲线的最大值点就为眼睛所在的行标eyePos

    三、人眼区域分割

    1. 对eyePos向前向后求波谷,可以确定人眼区域的上下部分,如下图

    这里写图片描述

    note:求波谷前可对曲线进行滤波
    同时注意曲线波谷的求法,因为曲线显示在图片时经过缩放了,但实则曲线可能在波谷是尖锐的点,即用一阶导为0,二阶导为正的方法不能正确的找到我们期待的波谷,因为在尖锐处的点是没有导数的。

    //利用简单的数值比较方法寻找波谷
    for (int i = eyePosx; i < curve.size()-1; i++)
    	{
    		
    		if (curve[i - 1]>curve[i] && curve[i + 1]>curve[i])
    		{
    			range2 = i;
    			break;
    		}
    	}
    

    2.区域分割
    若所获得人脸图片大部分包含人脸,则只需要截取上图中绿色横线包含的区域,若图像中不包含大部分人脸,可以对图片求取肤色部分,然后进行二值化求取轮廓,其中最大的轮廓就为人脸的轮廓,如下图其中红色方框与绿色坐标的相交部分即为人眼区域。如下图所示:

    SouthEastSouthEast

    SouthEastSouthEast

    总结

    利用尺度不变梯度算子进行卷积从而计算梯度投影曲线发现曲线中的最大值点就为眼睛所在的行坐标。利用眼睛局部灰度变化明显的特征从而将眼睛区域分割开,为下一步精准定位去除更多干扰,同时这一中方法抗噪性强并不依赖于滤波。
    展开全文
  •  一元线性回归代价函数图像  梯度下降求解  SGD、BGD、Mini-batchGD的特点  参考资料 在《深度学习面试题03改进版梯度下降法Adagrad、RMSprop、Momentum、Adam》中讲到了多种改进的梯度下降公式。而这篇...

    目录

      一元线性回归模型

      一元线性回归代价函数图像

      梯度下降求解

      SGD、BGD、Mini-batchGD的特点

      参考资料


    在《深度学习面试题03改进版梯度下降法Adagrad、RMSprop、Momentum、Adam》中讲到了多种改进的梯度下降公式。而这篇文章和03篇描述的不是一个事情,我们从一个例子说起,就知道改良的GD算法和本节介绍的GD算法的不同点了。

    一元线性回归模型

    举例:以房屋面积预测房屋价格

    假设函数可以设置为

     返回目录

     

    一元线性回归代价函数图像

     

    每一个预测值都与真实值存在一个差距,差距的平方和就可以作为一个代价函数。

     

    因此代价函数为:

    如下图所示(为方便观察,做了一个截断)

    代码为:

     View Code

     返回目录

     

    梯度下降求解

    当使用梯度下降法求解时,假设初始化(w,b)=(3.5,3.5)

    代价函数关于w和b的偏导数为:

    重点来了:Adagrad、RMSprop、Adam等算法都是建立在偏导数之上的,他们并不关心上式中N的取值,N取1,取100,还是取N,Adagrad、RMSprop、Adam等算法都可以运行。

    随机梯度下降法(Stochastic Gradient Descent,SGD),批量梯度下降法(Batch Gradient Descent,BGD),小批量梯度下降法(Mini-batch Gradient Descent,Mini-batchGD)则是研究这里的N的大小的

     

    如果N=1,此时为SGD,计算代价函数梯度的时候只考虑一个样本;

    如果N=样本容量,此时为BGD,计算代价函数梯度的时候考虑全部样本;

    如果N=m,1<m<N,此时为Mini-batchGD,计算代价函数梯度的时候考虑一小批样本。

     返回目录

     

    SGD、BGD、Mini-batchGD的特点

    SGD计算根据随机一个样本构造出来的代价函数的梯度,这与计算根据全部样本构造出来的代价函数的梯度肯定有偏差,也许是一个不好的梯度方向,下降时候并不沿着最有的方向下降,但是优点是可以快速的计算一个近似梯度,因为计算量缩减到原来的1/N。

    BGD计算根据全部样本的构造出来的代价函数的梯度,方向肯定是沿着当前最优的下降方向,但是计算代价较高,当数据集较大时,相当耗时。

    Mini-batchGD就不用说了,是前两者的折中

     

    下面用图像演示一下BGD和SGD下降的过程

    BGD效果如下

    BGD代码如下:

     View Code

     

    SGD效果如下:

    很明显SGD在下降过程中存在方向不稳定的情况,但是最终还是能收敛到最优点

     

    SGD代码如下:

     

     View Code

     返回目录

     

    参考资料

    《图解深度学习与神经网络:从张量到TensorFlow实现》_张平

    转载于:https://www.cnblogs.com/mfryf/p/11381179.html

    展开全文
  • 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检測的特征描写叙述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器...
  • 梯度下降算法

    2019-10-10 15:57:32
    梯度下降法 Gradient descent 作用: 用来最小化函数,这里用来最小化代价函数。 做法是:给定a,b最初值,一般起初都为0,然后不停的...梯度下降法的特点:最初点选择不同会得到一个不同的最优解。 简化研究:假设只...
  • 人脸识别的相对梯度方向边缘幅值模式,杨利平,叶洪伟,针对方向边缘幅值模式在剧烈光照变化情况下无法获得足够的特征描述信息的问题,本文在分析相对梯度幅值图像特点的基础上提出了相
  • 6-1 梯度下降法

    2019-08-23 15:37:36
    特点 不是机器学习算法 是一种基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 图像直观理解 假设只有一个参数,图像如下: 横轴:参数值;纵轴:损失函数值 导数(一维)可以代表...
  • 不同于单纯的“以图搜图”,“梯度视频搜索系统”根据侦查任务的N(N≥1)个已知场景或M(M≥1)张已知图像,提取、处理和扩充已知视频或已知图像中的特征图像序列,将其作为样本集合训练搜索系统内核(多级多个...
  • 该算法基于形态学分水岭思想,为了解决分水岭过分割问题,分析了裂缝图像狭长山谷的特点,选择从梯度图像的高频成分中提取与裂缝特征信息相关的局部极小值,从而约束伪极小值的出现,再对原始梯度图像强制标记,消除...
  • 在分析了照片人脸成像后的非线性变化特点后, 从人脸边缘信息的变化特征着手设计了一种基于图像处理的人脸活体检测新方法。用改进的梯度方向直方图描述人脸主要轮廓, 同时结合正、负样本的统计特征训练支持向量机分类...
  • 基于梯度的中心提取和坐标变换的指纹匹配法,冷建川,,根据指纹的结构形状特点,提出了一种基于梯度概念的中心模糊位置提取和坐标变换的指纹匹配方法,该方法能很好的解决指纹图像在采
  • 数字图像锐化

    2012-04-09 10:43:17
     用Sobel 梯度算子、Prewitt 梯度算子和log算子实现图像锐化的程序和图像如下:  I=imread('coins.png');%读入图像  subplot(2,2,1),imshow(I);title('原图像');%显示原图像  H=fspecial('sobel'); %应用...
  • 针对以上问题,本文在模糊理论的基础上,并结合红外梯度图像特点,提出了一种基于模糊联合误差的红外图像边缘检测方法.本文首先通过改进的Sobel算子构造出红外图像的梯度图,在对其进行模糊划分的基础上计算区域...
  • 针对分水岭算法存在的过分割问题以及VCH-F1切片图像的特点,提出了一种能够有效消除局部极小值和噪声干扰的分割方法。...实验结果证明,基于该方法处理梯度图像进行分水岭算法处理可以得到准确的分割结果。
  • 同时,结合图像的多分辨特性,实现了不同分辨率层级梯度图像的增强和融合,从而有效保留并增强不同变化程度的目标结构信息。最后,对大厚度比目标进行变能量X射线成像,并对融合的高动态范围图像进行增强处理,结果表明,所...
  • 利用经典超分方法获得高光谱超分图像集,研究了图像特点,提出一种基于3类图像特征向量的高光谱超分图像质量评价方法。该方法分别计算了图像的空域自然场景统计、局部频域特征以及局部二值模式梯度,获得了3类特征...

空空如也

空空如也

1 2 3 4 5 ... 13
收藏数 242
精华内容 96
关键字:

梯度图像特点