精华内容
下载资源
问答
  • 显著性目标检测论文
    2021-03-05 11:49:23
    • Is Depth Really Necessary for Salient Object Detection?

    显著目标检测(SOD)是许多计算机视觉应用的一个重要和初步的任务,随着深度cnn的发展,其研究已经取得了一定的进展。现有的方法大多依靠RGB信息来区分显著性目标,在一些复杂的场景中存在困难。为了解决这一问题,近年来许多基于RGB的网络被提出,它们采用深度图作为独立的输入,并将特征与RGB信息融合。借鉴RGB方法和RGBD方法的优点,提出了一种新的深度感知显著目标检测框架,该框架具有以下优点:1)只使用深度信息作为训练数据,在测试阶段只依赖RGB信息。2)多层次深度感知规则化,全面优化SOD特征。3)深度信息也作为错误加权图来纠正分割过程。这些深刻的设计相结合,我们第一次尝试实现一个统一的depth-aware框架只有RGB推理信息作为输入,这不仅超过了最先进的性能在五个公共RGB SOD基准,而且超过RGBD方法——基于五个基准以绝对优势取胜,同时采用更少的信息并实现轻量级。代码和模型将公开提供。

    特征融合21篇

    • Depth-induced Multi-scale Recurrent Attention Network for Saliency Detection DMRA2019

    在这项工作中,我们提出了一个新的深度诱导的多尺度反复注意网络显著性检测。尤其是在复杂的场景中,它能达到戏剧性的效果。实验证明,我们的网络有三个主要贡献,具有显著的实用价值。首先,我们设计了一个有效的利用残差连接的深度细化块,从RGB和深度流中充分提取和融合多级配对互补线索。其次,创新地将具有丰富空间信息的深度线索与多尺度的文本特征相结合,以精确定位突出目标。第三,我们通过一种新颖的大脑内部生成机制激发的<

    更多相关内容
  • 基于深度诱导多尺度循环注意力网络的显著性检测 图1 复杂场景中几种最先进的基于CNNs的方法的显著图 1、论文主要研究内容 本文主要研究如何在具有挑战的场景下有效的利用RGB-D数据增强模型的鲁棒性。 第一、本文...

    DMRANet 总结

    Depth-induced Multi-scale Recurrent Attention Network for Saliency Detection ICCV 2019

    基于深度诱导多尺度循环注意力网络的显著性检测
    在这里插入图片描述
    图1 复杂场景中几种最先进的基于CNNs的方法的显著图

    1、论文主要研究内容

    本文主要研究如何在具有挑战的场景下有效的利用RGB-D数据增强模型的鲁棒性。
    第一、本文借鉴残差连接的优势设计了一个简单而有效的深度提取块(DRB)去充分提取和融合多层的RGB图像和深度图像的特征。
    第二、考虑到
    图像由多个不同大小、尺度的物体组成
    ,并在多个布局中跨越不同的空间位置,本文创新性的设计了一个深度诱导的多尺度加权模块(DMSW)
    第三、启发于人脑的内部推导机制,本文设计了一个全新的循环注意力模块(RAM),这个模块可以通过使用面向记忆的场景理解功能,逐渐的优化局部细节,最终形成一个最优的检测结果。

    2、DMRANet 网络结构

    在这里插入图片描述

    此框架中:
    1、使用一个双流结构分别提取RGB图像的特征和深度图像的特征。
    2、保留了VGG-19的5个卷积块,最后的池化层和全连接层被丢弃。
    3、两个流的唯一区别就是,深度流被进一步处理以学习深度向量。

    2.1 模型原理

    DMRANet网络采用2路模式去分别提取RGB图像的特征以及深度图像的特征,这两路有相同的结构,但是拥有不同的参数。分别是RGB图像流和深度图像流。
    此网络中使用的是VGG-19作为网络的主干结构,为了更好的适应本文任务的需要,VGG-19的5个卷积层被保留,最后的池化层和全连接层被舍弃。此两路结构设计上的唯一不同点是,深度图像流后面加上了一个池化操作、一个卷积操作以及一个Softmax激活函数去学习一个深度向量。
    在此两路结构下,本模型设计了一个简单并且高效的深度提取模块去提取和融合多层的成对出现的RGB图像和Depth图像特征。

    注意:
    很多实验表明,从底层到高层的特征均包含了丰富的显著性检测线索,可以用来准确的识别和定位显著性物体。
    ①底层的特征,也就是VGG-19 网络前几层提取出来的特征,会包含更多的图像细节信息,这对于精确的识别显著性物体很重要。
    ②高层的特征,同时包含了更多的全局信息,能够帮助快速准确的定位显著性物体的区域。
    针对每一层中深度图像和RGB图像的融合,之前的研究多采用直接级联或者简单相加的方式去融合特征,本文认为这种融合方式是不充分的,因为它们没有考虑到RGB图像和深度图像提供信息之间的差异。
    本文设计的深度提取模块 DRB 中,引入了残差学习的思想,更充分的融合了深度信息以及RGB图像信息。融合之后的特征被输入到深度诱导的多尺度加权模块中,在这个模块中,通过使用多个并行的卷积层和池化层,能够提取出多个不同上下文的多尺度的特征,之前学习得到的深度向量被用于给这几个多尺度特征加权,然后加权后的多尺度特征被按元素相加求和,得到一个和输入特征相同大小的特征图。
    这个步骤也可以看作是RGB信息和深度信息的进一步的融合。
    到目前为止,融合后的特征已经可以直接用来去做预测,但是,如果直接将该特征去预测显著性图,融合特征的内部语义相关性就会被忽略掉。本文根据人脑的内部推导机制,设计了一个全新的循环注意力模块(Recurrent Attention Modulc,RAM)。在这里,注意力机制和 ConvLSTM被巧妙的结合在一起,极大的提高了本文模型的效果。最后预测得到的显著性图被真值监督,通过反向传播去更新网络的参数。此外,本文的网络是一个端到端的模型。

    2.2 深度提取块(DRB模块)

    在这里插入图片描述
    考虑到多层成对深度和RGB线索之间的互补性,利用残差连接来充分提取和融合多层成对互补信息。(此DRB可以充分的提取和融合多层成对的互补性信息

    DRB模块原理:fiRGB 和fidepth 分别代表在第 i 层RGB图像流和深度图像流的侧边输出。本文将fidepth输入到了一系列的加权层。这个加权层包含了两个卷积层和两个PReLU激活函数去学习一个深度残差向量。

    这个残差结果可以近似为从深度图像流中提取出互补信息,接下来,通过残差连接的方式,深度残差被加到RGB 图像特征上去学习一个融合的特征。通过这种方法,第 i 层的深度特征和RGB 图像特征被充分的提取和融合。

    下一步,为了更好的融合多层的特征,本文采取了一些调整特征大小和特征维度的操作,同时,在这里,本文仍然借鉴了残差学习的优势,在其中加入了一个常用的残差模块。如图所示,本文先调整(reshape)每层融合特征的大小(使用双线性插值的方法去增大特征图的大小,使用最大池化的方法减小特征图的大小),本文将所有层的特征图都调整到相同的分辨率大小。接下来,一个常规的残差模块被使用,去放缩特征的值,为了更好的适应多层特征的相加。一个1×1卷积操作被用来更改特征图的维度。最后从DRB模块中输出的特征为fi,fi是四分之一输入图像的大小,并且拥有相同的维度。

    2.3 深度诱导的多尺度加权模块(DMSW模块)

    在这里插入图片描述
    考虑到一个图像中的物体拥有不同的尺度,不同的大小,以及位于不同深度位置,本文设计了一个深度诱导的多尺度加权模块(DMSW),在这个模块中,深度线索被进一步和多尺度的特征结合在一起,去准确定位显著性区域。

    DMSW模块原理:带有丰富空间位置信息的深度线索被进一步处理,去学习一个深度向量depth vector ,去指导多尺度特征的权重分配。具体来说,为了捕获到多尺度的上下文特征,本文在输入特征Fuse上加了一个全局卷积操作以及若干个并行的卷积操作,这些卷积操作拥有不同大小的卷积核,不同的膨胀率。通过这种方法,6个多尺度的上下文特征Fm(m = 1,2, …)被生成。这6个特征拥有相同的分辨率,但是捕获到了不同尺度的上下文信息,这些信息对于最终决定显著性物体具有不同的重要性,本文认为,深度线索能够对这种多尺度特征捕获到的不同尺度的目标分配权重,判断他们在最终结果的重要性。和普通的卷积操作相比,空洞(膨胀)卷积操作能够增大感受野的同时,不损失分辨率的信息,也不会增加计算的负担。

    同时,为了获得对应的深度向量,一个全局平均池化操作和一个卷积层被加在深度图像流的最后一个卷积块的输出特征Fconv5_4上。然后本文使用了一个softmax激活函数去得到深度向量Vdepth,它可以被看作一个放缩向量,去加权每一个多尺度的上下文特征Fm,最后,所有的多尺度上下文特征会根据深度向量进行加权,然后加权后的多尺度上下文特征按特征级别进行相加,得出融合后的特征F∑ 。

    2.4 循环注意力模块(RAM模块)

    在这里插入图片描述
    RAM模块原理:受到人类视觉系统内部推导机制的启发。本文认为,充分挖掘融合特征内部的语义相关性也是非常重要的。本文通过使用一个全新的循环注意力模块去提升模型的性能。这个模型考虑到人脑内部推导机制IGM的核心所在,能够全方位的理解一个场景并且充分的学习融合特征的内部语义关联。详细来说,为了准确的捕获显著性物体,人脑IGM需要循环的根据之前的记忆去推导和预测显著性结果,在这个过程中,不确定和不重要的信息也会被忽略。

    对于人脑内部推导机制的启发,本文设计了一个全新的循环注意力模块RAM,巧妙的结合了注意力机制和ConvLSTM。通过这种方式,当推断当前的结果时,本文的RAM可以获取之前的记忆去辅助当前的决策。能够循环的学习不同语义之间的时间空间依赖性,并且通过面向记忆的场景理解逐渐的优化检测结果的细节信息。

    2.4.1 注意力子模块
    在这里插入图片描述
    注意力子模块原理:在注意力模块中,ht 代表的是循环注意力模块对上一次场景理解的记忆,F∑ 代表的是输入的特征。下角标 t 代表的是ConvLSTM中的时间步骤。ht 和 F∑ 被同时输入到卷积层中,然后分别得到一个卷积之后的特征图,之后这两个特征图被按元素级别进行相加。接下来,一个全局平均池化层和一个softmax激活函数被使用,去生成一个通道级别的注意力图。这里的注意力图是一个向量,用来给输入特征的每一个通道分配权重。

    注意:之前的研究表明,使用不同的卷积核得到的特征,在语义表征上有很大的差异,所以简单的将每一个通道分配相同的权重,同等对待是不充分的,有必要采取一定的措施去学习它们之间的内部语义关系。接下来通过将注意力图和F∑ 按元素级别相乘,在这次加权中,一个更具有代表性的,包含更多特征的特征图F ̃∑,t生成了。

    2.4.2 RAM子模块
    在这里插入图片描述
    RAM子模块原理
    F ̃∑,t被进一步输入到ConvLSTM中,去学习不同语义特征之间的空间相关性。

    2.4.3 普通的空间级别的注意力机制
    此外,本文使用了一个普通的空间级别的注意力机制,它被用来强调每一个像素点对最后显著性区域判断的重要程度。对于前一步提取的通道特征Fc,本文使用了一个卷积操作和一个Softmax激活函数去计算得到一个空间级别的注意力图。它可以被用来判断一个特征图的每一个像素点是否应该被强调或被降低重要性。

    接下来,通道级别的注意力图Atts(Fc)和输入特征Fc被按元素级别进行相乘,得到一个空间加权的特征。最后,本文通过一个2通道的1x1卷积操作生成显著性图,然后本文将Fcs进行四次上采样得到最终的显著性图。

    3、实验结果分析

    实验结果:可视化展示
    在这里插入图片描述
    本图显示了一个12行12列的不同方法下的显著性检测结果。
    从图中可以看出,本文的结果更加符合GT。
    ①在复杂的场景中,杂乱的背景。(第5行和第6行)
    ②在低对比度、透明物体以及多个小物体等更具有挑战性的场景中,能够比其他场景更准确地定位和检测具有尖锐细节的整个明显物体。(第9行-第12行)

    4、结论

    显著性物体检测的目的是识别一个场景中最吸引人的区域,这个基础的工作在很多计算机视觉中发挥了至关重要的作用,比如视觉追踪,图像分割,物体识别,等等。
    本文提出了一个新颖的深度诱导的多尺度循环注意力网络,该网络从三个方面显著提高了显著性检测模型的能力:
    (1) 通过使用一个简单而有效的深度提取块(DRB)去充分的提取和融合多层的RGB图像和深度图像互补信息;
    (2) 创新性的将深度信息与多尺度上下文特征结合到一起,去帮助准确定位显著性区域
    (3) 受到人脑的内部推导机制的启发,本文提出了一个新颖的循环注意力模块,该模块能够循环使用之前的场景理解的记忆,渐进式的优化模型检测的细节和移除背景躁点;

    此外,本文还建立了一个具有1200图片的大规模RGB-D显著性数据集。包含了更多具有挑战性的场景。本文全面地验证了DMRA网络的每个组成部分的有效性,并显示了实验精度逐渐增加。实验结果也证明了本文的方法在7个RGB-D数据集上取得了最新的性能。

    综上所述:这篇2019年在ICCV上发表的显著性检测论文:Depth-induced Multi-scale Recurrent Attention Network for Saliency Detection 是一篇很值得研究的论文,其网络结构具有很强的推广性,希望此总结能够帮助大家更好的理解这篇文章!

    展开全文
  • 【1】Salient Object Detection With Pyramid Attention and Salient Edges 【2】Attentive Feedback Network for Boundary-Aware Salient Object Detection 【3】Pyramid Feature Attention Network for Saliency ...

    【1】Salient Object Detection With Pyramid Attention and Salient Edges
    【2】Attentive Feedback Network for Boundary-Aware Salient Object Detection
    【3】Pyramid Feature Attention Network for Saliency Detection
    【4】Co-Saliency Detection via Mask-Guided Fully Convolutional Networks With Multi-Scale Label Smoothing
    【5】Cascaded Partial Decoder for Fast and Accurate Salient Object Detection
    【6】A Simple Pooling-Based Design for Real-Time Salient Object Detection
    【7】Contrast Prior and Fluid Pyramid Integration for RGBD Salient Object Detection
    【8】An Iterative and Cooperative Top-Down and Bottom-Up Inference Network for Salient Object Detection
    【9】CapSal: Leveraging Captioning to Boost Semantics for Salient Object Detection
    【10】Multi-Source Weak Supervision for Saliency Detection
    【11】BASNet: Boundary-Aware Salient Object Detection
    【12】A Mutual Learning Method for Salient Object Detection With Intertwined Multi-Supervision
    【13】Shifting More Attention to Video Salient Object Detection

    展开全文
  • 用于显著性目标检测的边缘指导网络 1、论文主要研究内容 第一步,本文采用渐进式融合的方法提取出显著的目标特征。 第二步,将局部边缘信息和全局位置信息相结合,得到显著的边缘特征。 第三步,为了充分利用这些...

    EGNet总结

    EGNet: Edge Guidance Network for Salient Object Detection ICCV2019

    用于显著性目标检测的边缘指导网络
    在这里插入图片描述

    1、论文主要研究内容

    第一步,本文采用渐进式融合的方法提取出显著的目标特征。
    第二步,将局部边缘信息和全局位置信息相结合,得到显著的边缘特征。
    第三步,为了充分利用这些互补特征,本文将相同的显著边缘特征与不同分辨率下的显著目标特征相结合。
    进而本文提出一个EGNet来显式地模拟网络中互补的显著对象信息和显著的边缘信息,以保持显著目标的边界。同时,显著的边缘特征也有助于定位。
    本文的模型联合优化了这两个互补的任务,允许它们相互帮助,从而显著的改善了预测显著性图。

    2、EGNet网络结构

    在这里插入图片描述
    此框架中:
    1、此结构保留了VGG-16的5个卷积块,最后的三个全连接层被丢弃。
    2、由于VGG-16中,Conv2-2保留了更好的边缘信息,所以利用S2提取边缘特征。
    3、根据DSS(决策支持系统),此框架将另一条边路径连接到VGG中的最后一个池化层。

    2.1 模型原理

    首先,VGG-16的主干网络用来进行特征提取,根据DSS(决策支持系统),本文将另一条边路径连接到VGG中的最后一个池化层。
    从主干网中,本文得到了六个边特征,因为Conv1-2离输入太近,感受野太小,舍弃。
    因为Conv2-2保留了更好的边缘信息,本文利用S(2)来提取边缘特征,而其他边路径则用来提取显著性目标特征。然后将各个边特征输入到PSFEM(渐进式显著目标提取模块)中,采用自顶向下的传播方式进行显著性目标特征的提取。接着将四个单通道预测映射和经过NLSEM(非局部显著边缘特征提取模块)处理的边缘特征同时输入O2OGM(一对一指导模块)中,进行FF(特征融合),将各个融合后的特征经过卷积层进行特征增强,最后将多尺度的细化特征进行特征融合,输出显著性的预测结果。

    2.2 渐进式显著目标特征提取模块(PSFEM)

    在这里插入图片描述
    PSFEM模块原理
    将VGG16的顶层边路特征输入到PSFEM模块中。首先,为了获得更稳健的显著性目标特征,将每个边路径经过三个卷积层,并在每个卷积层后面添加了ReLU激活函数层以保证非线性。接下来,本文采用一个卷积层将特征映射转换为单通道预测映射,最终输出四个显著目标特征提取映射图。

    2.3 非局部显著边缘特征提取模块(NLSEM)

    在这里插入图片描述
    NLSEM模块原理
    Conv2-2保留了更好的边缘信息。因此,本文从Conv2-2中提取局部边缘信息。然而,要获得显著的边缘特征,仅仅依靠局部信息是不够的。还需要高级语义信息或位置信息。
    本文采用了一种自顶向下的位置传播,将顶层位置信息传播到侧路径S(2)以抑制不显著的边缘,然后进行特征的融合,获得引导特征。在引导特征后面,本文添加了一系列的卷积层来增强引导特征。在此基础上,本文增加了一个额外的显著边缘来监督显著边缘特征。

    2.4 一对一指导模块(O2OGM)

    在这里插入图片描述
    O2OGM模块原理
    在获得互补的显著边缘特征和显著目标特征后,利用显著边缘特征来引导显著目标特征,以更好地进行分割和定位。
    本文的目标是融合显著目标特征和显著边缘特征,利用互补信息获得更好的预测结果。
    具体步骤为,本文为S(3)、S(4)、S(5)、S(6)添加子边路径。在每一个子边路径中,通过将显著的边缘特征融合为增强的显著目标特征,使得高层预测的定位更加准确。然后在每个子边路径上采用一系列卷积层T来进一步增强s特征,使用过渡层D将多通道特征映射转换为一个单通道预测图。

    本文还为这些增强的特征添加了深度监视。对于每一个子图,可以计算出输出损失。然后对多尺度细化预测图进行融合,得到融合后的预测图。

    3、实验结果分析

    实验结果:可视化展示
    在这里插入图片描述
    结果表明
    该方法在显著目标分割和定位方面有较好的效果。由于显著的边缘特征,本文的结果不仅可以突出显著性的区域,也可以产生一致的边缘。
    针对第一个样本:由于复杂场景的影响,其他方法不能准确地定位和分割出显著的目标。然而,受益于互补的显著边缘特征,本文的方法表现得更好。
    针对第二个样本:其中显著性目标是相对较小的,本文的结果仍然非常接近标注值。

    4、消融分析

    在这里插入图片描述
    边缘策略分析的三种方法:
    第一种:结合显著边缘特征和显著目标特征Fˆ(3)得到预测掩码。我们把这种使用边的策略称作为edge_PROG。
    第二种:利用自顶向下的位置传播对来自顶层而不是侧面路径S(3)中提取更准确的位置信息。我们称之为edge_TDLP。
    第三种:把NLDF使用的IOU损失加到基线上。这种策略称为edge+NLDF。

    互补融合特征的三种方法:
    第一种方法:是默认方法,它集成了显著边缘特征(FE)和显著目标特征Fˆ(3),Fˆ(3)位于U-Net体系结构的顶部。
    第二种方法:是逐步融合多分辨率特征Fˆ(3)、Fˆ(4)、Fˆ(5)、Fˆ(6),称为MRF-PROG。
    第三种方式:是一对一指导,即MRF-OTO。这里MRF表示多分辨率融合。

    5、结论

    本文的目标是保持显著性目标的边界。与其它融合多尺度特征或利用后处理的方法不同,本文着重研究了显著边缘信息和显著目标信息之间的互补性。
    基于这一思想,本文提出了EGNet来对网络中的这些互补特征进行建模。
    (1)基于U-Net提取多分辨率的显著目标特征。
    (2)提出了一种非局部显著边缘特征提取模块,该模块将局部边缘信息和全局位置信息相结合,得到显著边缘特征。
    (3)本文采用一对一的指导模块来融合这些互补的特性。

    在显著边缘特征的帮助下,改进了显著目标的边界和定位。在六个广泛使用的数据集上,本文的模型在没有任何预处理或后处理的情况下,与最先进的方法相比表现良好。

    综上所述:这篇2019年在ICCV上发表的显著性检测论文: EGNet: Edge Guidance Network for Salient Object Detection 是一篇很值得研究的论文,其网络结构具有很强的推广性,希望此总结能够帮助大家更好的理解这篇文章!

    展开全文
  • 为了能正确检测显著性图中的多个显著性目标,提出了一种基于全局颜色对比的显著性目标检测算法。该算法首先提取图像的全局颜色对比度特征,然后把显著性图和全局颜色对比度作为特征输入条件随机场框架中,得到二值...
  • RGB-D显著性检测的选择、补充和聚焦 1、论文主要研究内容 本文提出了一种基于全局位置和局部细节互补的精确RGB-D显著性检测的新框架。这是通过设计一个互补的交互模块(CIM)来从RGB和深度数据中有区别地选择有用的...
  • 视觉显著性检测是很多计算机视觉任务的重要步骤,在图像分割、自适应压缩和识别物体方面都有很重要的应用。提出了一种基于HSV颜色、纹理特征和空间位置关系相结合的显著性检测算法。该方法先将图像分割成小的图像片...
  • 为了更加准确地检测出图像中的显著性目标,提出了多先验融合的显著性目标检测算法。针对传统中心先验对偏离图像中心的显著性目标会出现检测失效的情况,提出在多颜色空间下求显著性目标的最小凸包交集来确定目标的...
  • 提出一种基于超像素下条件随机场模型的图像显著性目标检测方法,利用超像素块的边缘保持特性和条件随机场的邻域约束特性来增强图像显著性目标检测的准确性。 提出一种基于深度条件随机场网络的图像显著性目标检测...
  • 基于图的流形排序的多层级融合显著性目标检测,李翠萍,陈振学,针对基于图的流形排序的显著性目标检测方法在突出显著性物体和抑制背景方面的不足,提出一种基于图的流形排序的多层级融合显著性
  • 前言:CVPR2018会议论文集已经公示(CVPR2018全部论文集链接),本文对显著性目标检测领域的6篇进行了整理,将这几篇论文的主体思想汇总起来,供大家一起学习。 一、论文列表: 1.《Flow Guided Recurrent Neural ...
  • 基于局部特征与全局特征的图像显著性目标检测,贺超,陈振学,目前,视觉注意机制已经得到了快速的发展,并应用到了图像智能检测与识别等多个领域。但是,现有的显著性检测方法仍然面临实时性
  • 论文仅供学习参考使用。...提出使用目标性作为先验信息得到前景显著图,并且利用乘法运算将其与基于背景先验信息计算的显著图相融合,然后进行空间优化得到单尺度下的显著图,最终显著图为多尺度显著图的加权融合.
  • 针对自顶向下显著性目标检测边界模糊及准确率低的问题,提出一种结合条件随机场(conditional random field,CRF)和流行排序(manifold ranking,MR)的自顶向下显著性目标检测方法。首先对图像进行超像素分割,以...
  • 为了促进对视觉显著性模型的进一步研究和评估,我们还构建了一个新的大型数据库,其中包括4447张具有挑战性的图像及其像素级的显著性标注。实验结果表明,我们提出的方法能够在所有公开基准测试上取得SOTA,在MSRA-B...
  • 针对自顶向下显著性目标检测边界模糊及准确率低的问题,提出一种结合条件随机场( conditional random field,CRF) 和流行排序( manifold ranking,MR) 的自顶向下显著性目标检测方法。首先对图像进行超像素分割,...
  • 显著性目标检测模型:EGNet 总结

    千次阅读 2019-09-22 23:02:59
    本文提出了一种名为EGNet的网络结构来解决静态目标检测问题,它由边缘特征提取部分、显著性目标特征提取部分以及一对一的导向模块三部分构成,利用边缘特征帮助显著性目标特征定位目标,使目标的边界更加准确。...
  • 针对显著性检测方法生成显著图存在对比度低、目标区域细节不明显、检测区域不准、背景抑制效果不足的问题,提出幂律变换和IGLC算法的显著性目标检测方法。利用幂律变换函数优化IG算法,彻底抑制显著图的背景区域。经...
  • 显著性目标检测(识别图像的主体,本质是一种分割任务。先算显著图,再合并分割显著对象)2014前,基于手工特征的传统方法:无法描述复杂场景、对象结构;泛化能力差。基于深度学习的方法:1)多层感知机(MLPs)/传统...
  • 显著性目标检测SOD论文大盘点 2020/6/15 图像SOD Hierarchical Saliency Detection cvpr2013 salient detection by multi-context deep learning 2015 Saliency Unified A Deep Architecture for simultaneous ...
  • 从人类视觉推理显著性目标检测

    千次阅读 2021-01-15 10:26:11
    目前关于视觉显著性的研究主要集中在两个方面: 注视点的预测和SOD(显著性目标检测),然后这两者之间的关系并没有很好的探索,论文提出了一种利用注视点预测模型辨别显著性目标。通过利用注视点预测推理显著目标,...
  • 点击上方“AI算法修炼营”,选择“星标”公众号精选作品,第一时间送达本文是收录于CVPR2020的有关显著性目标检测的文章,主要的创新点在特征聚合操作,可以迁移到其他需要融合深层和浅层特...
  • 论文:RGB-D Salient Object Detection: A Survey 论文下载:RGB-D Salient Object Detection: A Survey ...论文一共24页,共计193篇参考文献。 作者单位:IIAI&...显著性目标检测(SOD)可模拟人类视觉感
  • 这是本人整理的显著性目标检测论文,包括对每篇的阅读与总结,如果读者看完有任何问题,欢迎联系:-) 2016年 CVPR DHSnet:Deep Hierarchical Saliency Network for Salient Object Detection. ...
  • 显著性检测 【36】Learning Selective Self-Mutual Attention for RGB-D Saliency Detection 作者:Nian Liu, Ni Zhang, Junwei Han 【37】Label Decoupling Framework for Salient Object Detection 作者:...
  • 论文解决的问题: 1.采用多级特征集成从而忽略不同特征的差距的问题。 2.随着高级特征在卷积网络的传递导致逐渐稀释的问题 提出的方法 采用了四个模块 Feature Interweaved Aggregation (FIA) modules,有效地集成...
  • 本文主要对SOD领域内的主要模型方法、数据集、评估方法和数据集做了一定的总结报告,部分内容源自于相关论文和网站博客内容。
  • 论文仅供参考学习使用。 本文主要关注自底向上的显著性目标检测模型。从先验信息融合的角度出发,对显著性目标检测进行了深入研究,并将其应用到背光图像增强和交通标志识别领域。
  • 显著性目标检测之PoolNet

    千次阅读 2019-07-20 17:20:27
    论文:A Simple Pooling-Based Design for Real-Time Salient Object Detection Github: https://github.com/backseason/PoolNet 官网:http://mmcheng.net/poolnet/ 论文提出两个模块GGM (Global Guidance ...
  • 提出在多颜色空间下求显著性目标的最小凸包交集来确定目标的大致位置,以凸包区域中心计算中心先验。同时通过融合策略将凸包区域中心先验、颜色对比先验和背景先验融合并集成到特征矩阵中。最后通过低秩矩阵恢复模型...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 19,369
精华内容 7,747
关键字:

显著性目标检测论文