精华内容
下载资源
问答
  • 常用的图像特征主要有颜色、纹理形状,包括局部特征和全局特征。 局部特征是基于图像的某个区域提取的图像描述符,如尺度不变特征SIFT(Scale Invariant Feature Transform)。(相当于CNN网络的浅层卷积部分);...

    https://blog.csdn.net/TTdreamloong/article/details/79798817?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-8.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-8.nonecase

    基于内容的图像检索(Content-based Image Retrieval, CBIR)方法利用从图像提取的特征来进行检索。

    常用的图像特征主要有颜色纹理形状,包括局部特征全局特征

          局部特征是基于图像的某个区域提取的图像描述符,如尺度不变特征SIFT(Scale Invariant Feature Transform)。(相当于CNN网络的浅层卷积部分);局部特征通常来自图片的视觉敏感区域。

         全局描述符基于整幅图像提取的描述符,如GIST。全局特征对图像的压缩率较高,但区分力不强;(相当于CNN网络的深层卷积部分);因为一幅图片只能生成一个全局特征

    局部特征的区分力强,但数目太多,故而各种编码方法被提了出来,如BOF(Bag of Features,特征袋),Fisher向量 (Fisher Vectors, FV),以及VLAD (Vector of Locally Aggregated Descriptors)等。BOF,VLAD,FV等描述符通常继承了局部特征的部分不变性,如对平移、旋转、缩放、光照和遮挡等与语义相关不大的因素保持不变。

     

     

     

    卷积层特征SIFT相比

    有如下特点:

    (1)卷积层特征类似于密集SIFT特征(通过网格式的密集采样得到)。卷积层特征与SIFT一样是局部特征,对应了图片的某个区域(可以将CNN特征图上每一个点反向映射回图片), 是一种局部特征。

    (2)卷积层特征是通过学习得到的,SIFT是手工类型。CNN的卷积层参数是可以针对不同的数据集通过迭代训练调优的,而且可通过简单的修改进一步改进(如增加深度、宽度等)而SIFT的参数是通过预先的精密设计固定的。

    (3)卷积层特征具有层次性。不同的卷积层具有不同的语义层次,如浅层的特征图通常是一些边/角等,而中层则是物体的一部分,高层则通常是一个完整的物体。选用不同的层将可能达到完全不同的效果,该如何选择一个最优的层则到目前为止还没有一个最优的方法,通常通过测试多层的效果来达到。SIFT在不使用SP的情况下不具有层次性,描述的是边/角等比较低层次的特征,这也是为什么CCS将SIFT与CNN融合会有效果的原因之一。

    (4)CNN卷积层特征维度比SIFT/SURF等浅层特征要大得多,而且计算量大,需要GPU辅助才能达到实时的效果,而且因为要存储很多卷积层特征图的原因,空间开销也要大得多。对于PC机而言,这不是什么大问题,然而未来的AI将可能无处不在,CNN在移动平台上的使用将成为一个具有挑战性的问题。随着类脑计算如火如荼的展开,各种神经处理专用芯片(如中科院陈云霁等研发的DaDianNao, Google最近研发的TPU等)不断涌现,此问题或者也将不是问题。

    展开全文
  • 2.2.2 面向目标的浅层特征 对于深层和浅层特征,主要取决于卷积层的数量。以3x3的目标为例,下采样2次后,目标就会消失,因此,在Conv3上,目标会消失。我们将Conv1和Conv2作为浅层特征,其他的作为深层特征。类似...

    点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”


    导读

    对于检测小目标有一定的借鉴意义。

    论文下载:后台回复“红外小目标检测”获取论文下载链接。

    1. 介绍

    红外小目标检测的几个困难点:

    1、目标尺寸很小,没有结构,纹理,形状的信息。

    2、背景很复杂,各种噪声很多,目标很容易淹没在背景中。

    3、SCR很低,信号的对比度很低,信号强度相比于周围的区域,对比度不是很强。

    4、目标移动不稳定。

    5、噪声特性是未知的。

    6、经常需要多帧检测,增加了计算量和复杂度。

    本文的主要贡献:

    1、全面分析了基于深度神经网络来做红外小目标检测的两个关键问题,小anchor和浅层特征。

    2、将基于IoU的正负样本判定逻辑改为基于中心点的方法。

    3、分析了浅层特征和深层特征的作用,浅层特征很关键,深层特征很有用。

    4、这是首次使用CNN来进行红外弱小目标的检测。

    2、方法

    这个任务主要有2个问题需要考虑:

    1、让CNN来检测红外弱小目标变的可行。

    2、在低SCR的情况下,有好的检测结果。

    2.1 点目标的形式

    送到网络中的点目标的形式是非常重要的,我们没有选取点目标实际占据的像素作为点目标的表示,而是在中心点处选取了一个3x3的区域作为点目标的实例。理由有3:

    1、单个像素的信息很少,很难和背景区分,3x3的区域可以比较好的和背景区分。

    2、实际的目标并不是一个点,而是一个圆盘,可以通过高斯灰度方程来表示:

    3、这个区域不是很大,包含的背景信息很少。

    2.2 面向目标的浅层特征

    2.2.1 小anchor的效果

    anchors的设置如下:


    可以看到,使用小anchor的时候,每个位置只有1个anchor,这样大大减少了anchor的数量。

    2.2.2 面向目标的浅层特征

    对于深层和浅层特征,主要取决于卷积层的数量。以3x3的目标为例,下采样2次后,目标就会消失,因此,在Conv3上,目标会消失。我们将Conv1和Conv2作为浅层特征,其他的作为深层特征。类似的,如果是5x5的目标,conv1,conv2和conv3是浅层特征,其他的是深层特征。

    因此,CNN是适合做点目标检测的:

    1、小的anchor box用来保证点目标可以高效的送到网络中。

    2、用浅层特征。

    3、结合深度语义特征和浅层特征。

    2.2.3 TSDF-based目标检测框架

    框架包含3个部分,ResNet50特征提取器,特征融合模块,目标判定模块。这里,我们展示如何使用ResNet50的Conv1到Conv4来检测点目标。

    1、特征提取器

    使用ResNet50作为主干,Conv1和Conv2是浅层特征,Conv2之后的为深层特征,浅层特征直接送到目标判定模块中。

    2、特征融合模块

    为了使用更高层的语义信息,需要将深层特征和浅层特征进行融合,以Conv3为例,先进行上采样,然后和Conv1进行合并,为了减少通道数,需要进行一个1x1的卷积。融合方程为:

    3、目标判定模块

    该模块中有4个输入,2个高分辨率浅层特征图,2个高分辨率浅层特征和深层特征融合的特征图。包括一个分类子网络和一个回归子网络,4个输入可以得到4个输出,然后选择得分最高的作为最后的检测结果。

    整体结构如下图:

    3. 实验

    这里用到了2个数据集,生成的红外数据集Data1和真实的红外数据集Data2,两个数据集的示例图如下:

    使用不同层的特征的对比,这里Pd是检测率,Pf是虚警率,Pmd是漏检率:

    可以看到,浅层特征的是关键,同时深层特征也有很大的帮助,特别是是对虚警率和漏检率。

    不同检测方法的对比:

    —END—

    请长按或扫描二维码关注本公众号

    喜欢的话,请给我个在看吧

    展开全文
  • 图像检索研究进展:浅层深层特征特征融合 欢迎使用Markdown编辑器写博客 本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦: Markdown扩展Markdown简洁的语法 代码块高亮 图片...

    图像检索研究进展:浅层、深层特征及特征融合

    欢迎使用Markdown编辑器写博客

    本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:

    • Markdown和扩展Markdown简洁的语法
    • 代码块高亮
    • 图片链接和图片上传
    • LaTex数学公式
    • UML序列图和流程图
    • 离线写博客
    • 导入导出Markdown文件
    • 丰富的快捷键

    快捷键

    • 加粗 Ctrl + B
    • 斜体 Ctrl + I
    • 引用 Ctrl + Q
    • 插入链接 Ctrl + L
    • 插入代码 Ctrl + K
    • 插入图片 Ctrl + G
    • 提升标题 Ctrl + H
    • 有序列表 Ctrl + O
    • 无序列表 Ctrl + U
    • 横线 Ctrl + R
    • 撤销 Ctrl + Z
    • 重做 Ctrl + Y

    Markdown及扩展

    Markdown 是一种轻量级标记语言,它允许人们使用易读易写的纯文本格式编写文档,然后转换成格式丰富的HTML页面。 —— [ 维基百科 ]

    使用简单的符号标识不同的标题,将某些文字标记为粗体或者斜体,创建一个链接等,详细语法参考帮助?。

    本编辑器支持 Markdown Extra ,  扩展了很多好用的功能。具体请参考Github.

    表格

    Markdown Extra 表格语法:

    项目价格
    Computer$1600
    Phone$12
    Pipe$1

    可以使用冒号来定义对齐方式:

    项目价格数量
    Computer1600 元5
    Phone12 元12
    Pipe1 元234

    定义列表

    Markdown Extra 定义列表语法: 项目1 项目2
    定义 A
    定义 B
    项目3
    定义 C

    定义 D

    定义D内容

    代码块

    代码块语法遵循标准markdown代码,例如:

    @requires_authorization
    def somefunc(param1='', param2=0):
        '''A docstring'''
        if param1 > param2: # interesting
            print 'Greater'
        return (param2 - param1 + 1) or None
    class SomeClass:
        pass
    >>> message = '''interpreter
    ... prompt'''

    脚注

    生成一个脚注1.

    目录

    [TOC]来生成目录:

    数学公式

    使用MathJax渲染LaTex 数学公式,详见math.stackexchange.com.

    • 行内公式,数学公式为: Γ(n)=(n1)!n Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N
    • 块级公式:

    x=b±b24ac2a x = − b ± b 2 − 4 a c 2 a

    更多LaTex语法请参考 这儿.

    UML 图:

    可以渲染序列图:

    Created with Raphaël 2.1.2 张三 张三 李四 李四 嘿,小四儿, 写博客了没? 李四愣了一下,说: 忙得吐血,哪有时间写。

    或者流程图:

    Created with Raphaël 2.1.2 开始 我的操作 确认? 结束 yes no
    • 关于 序列图 语法,参考 这儿,
    • 关于 流程图 语法,参考 这儿.

    离线写博客

    即使用户在没有网络的情况下,也可以通过本编辑器离线写博客(直接在曾经使用过的浏览器中输入write.blog.csdn.net/mdeditor即可。Markdown编辑器使用浏览器离线存储将内容保存在本地。

    用户写博客的过程中,内容实时保存在浏览器缓存中,在用户关闭浏览器或者其它异常情况下,内容不会丢失。用户再次打开浏览器时,会显示上次用户正在编辑的没有发表的内容。

    博客发表后,本地缓存将被删除。 

    用户可以选择 把正在写的博客保存到服务器草稿箱,即使换浏览器或者清除缓存,内容也不会丢失。

    注意:虽然浏览器存储大部分时候都比较可靠,但为了您的数据安全,在联网后,请务必及时发表或者保存到服务器草稿箱

    浏览器兼容

    1. 目前,本编辑器对Chrome浏览器支持最为完整。建议大家使用较新版本的Chrome。
    2. IE9以下不支持
    3. IE9,10,11存在以下问题
      1. 不支持离线功能
      2. IE9不支持文件导入导出
      3. IE10不支持拖拽文件导入


    1. 这里是 脚注内容.
    展开全文
  • 采用特征融合的方法,通过卷积网络提取出浅层特征深层特征并进行联接,对特征通过卷积进行融合,将获得的矢量信息输入LSTM单元。分别使用数据光流信息与红绿蓝信息训练网络,将各网络的结果进行加权融合。实验结果...
  • 由于特征模型的局限性,我们引入卷积特征,也就是经过卷积神经网络得到的特征信息,包括浅层信息和深层信息,浅层信息指的是:前级的卷积层得到的特征图,感受野更加关注的是图像细节纹理等特征深层信息包括:后级...
  • 神经网络的表示 用上标[i]代表神经网络的第i层,用上标(i)代表第i个样本; 代表第i-1层第i层之间的权重参数矩阵,维度为(代表第i层的单元数);代表第i-1层第i层之间的偏置参数向量,...把m个样本的特征向...

    目录

    浅层神经网络

    神经网络的表示 

    计算神经网络的输出

    单个样本前向传播

    多个样本前向传播

    激活函数

    sigmoid函数与tanh函数

    Relu函数和Leaky Relu函数

    使用非线性激活函数原因

    神经网络的梯度下降(反向传播)

    随机初始化

    深层神经网络

    深层神经网络前向传播

    核对矩阵的维数

    搭建深层神经网络块

    参数和超参数


    浅层神经网络

    神经网络的表示 

    • 用上标[i]代表神经网络的第i层,用上标(i)代表第i个样本;
    • W^{[i]}代表第i-1层和第i层之间的权重参数矩阵,维度为n^{[i]}*n^{[i-1]}n^{[i]}代表第i层的单元数);b^{[i]}代表第i-1层和第i层之间的偏置参数向量,维度n^{[i]}*1
    • 一般输入层为第0层,不算在神经网络的层数内。

    计算神经网络的输出

    单个样本前向传播

    z_{j}^{[i]},a_{j}^{[i]}整合为一个列向量记做z^{[i]},a^{[i]},把w_{j}^{[i]}^{T}整合为一个矩阵W^{[i]}

          

    多个样本前向传播

    把m个样本的特征向量x^{(i)}堆叠在一起构成特征矩阵X(n_{x}*m)作为输入,可以同时实现m个样本的前向传播,此时中间结果z,a(向量或标量)都相应的扩展为Z,A(矩阵或向量)。扩展的矩阵横向指标对应不同的训练样本,竖向指标对应神经网络中的不同节点

     

    激活函数

    sigmoid函数与tanh函数

        

    在实际应用中几乎不使用sigmoid激活函数,tanh函数几乎在所有方面都优于sigmoid函数

    sigmoid激活函数使用情形(导数为a(1-a)):

    • 使用神经网络进行2分类时,此时输出层只有一个单元且输出需介于0-1之间

    sigmoid函数缺点:

    • 当输入z太大或太小时,梯度会接近于0,算法优化速度会非常慢
    • 输出以0.5为中心,不是以0为中心,输出值没有中心化的效果(输出数据以0为中心化可以方便下一层的学习)

    tanh函数(导数为1-a^2):

    • 优点:输出值以0为中心,有数据中心化的效果。方便下一层的学习。
    • 缺点:当输入z太大或太小时,梯度会接近于0,算法优化速度会非常慢(与sigmoid类似)。

    Relu函数和Leaky Relu函数

    Relu函数:

    • 优点:不存在梯度接近于0的情况,算法优化速度比sigmoid和tanh函数快很多。
    • 缺点:当输入z< 0时,梯度=0,但是这影响不大,对于大部分隐藏层的单元来说,输入z >0,此时梯度都是不为0的(=1)。

    Leaky Relu函数:在Relu函数的基础上增加了一个超参数,当z< 0时的系数需要手动设置,一般设为0.01,实际操作中,可以进行尝试然后选出最优的。

    使用非线性激活函数原因

    使用非线性激活函数可以让神经网络得到有趣的输出。

    无论使用多少个隐层,如果每个隐层和输出层都采用线性激活函数,那么最后的输出可以表示为输入特征的线性组合。也就是说,此时的隐层是没有意义的,不需要任何隐层也可以得到该输出。但如果机器学习的是线性回归问题,比如房价预测,输出层用线性激活函数也许可以。

    神经网络的梯度下降(反向传播)

    随机初始化

    权重参数W应该随机初始化,而偏置参数b可以初始化为0,因为只要W保证随机初始化,就可以破坏隐藏单元对称性。一般随机初始化权重参数时,还要乘以一个非常小的数,如0.01。因为如果采用sigmoid或tanh激活函数时,不至于使z过大或过小,导致计算梯度时接近于0,降低算法的优化速度。

    深层神经网络

    深层神经网络前向传播

    A^{[0]} = X,for (l=1:l)

        Z^{[l]} = W^{[l]}*A^{[l-1]} + b^{[l]}

        A^{[l]} = g^{[l]}(Z^{[l]})

    其中A^{[0]}是对单个样本前向传播的向量进行堆叠(一列代表一个样本),形成相应的矩阵。

    核对矩阵的维数

    以5层神经网络为例进行核对矩阵的维数

    单个样本 vs. m个样本

        

    搭建深层神经网络块

    先由a^{[0]}前向传播得到a^{[L]}=\hat y,计算损失函数L(a^{[L]},y);再反向传播,先计算出da^{[L]}=\frac{\partial L(a^{L},y)}{\partial a^{L}},再继续利用链式法则(以及前向传播中缓存的中间结果z^{[L]},和参数W^{[L]},b^{[L]})逐步计算出dz^{[L]},dW^{[L]},db^{[L]},da^{[L-1]},其他层依次进行。

    参数和超参数

    参数W^{[1]},b^{[1]},W^{[2]},b^{[2]},W^{[3]},b^{[3]},...

    超参数:学习率\alpha、梯度下降迭代次数、隐层数、各个隐层单元数、激活函数的选择等等需要自己来设置的参数,实际上超参数的不同取值可以影响模型的实际参数。

    展开全文
  • 目前主流的观点是: 对于cv领域,浅层特征表示的是粗粒度的,好比这是一个人,那个是一个猪的照片 对于NLP领域,认为,浅层特征代表语法特征深层特征代表语义特征
  • 图像浅层特征浅层网络提取的特征和输入比较近,包含更多的像素点的信息,一些细粒度的信息是图像的的一些颜色、纹理、边缘、棱角信息。 原理:浅层网络感受野较小,感受野重叠区域也较小,所以保证网络捕获更多...
  • 浅层和深层卷积网络用于显着性预测 该论文在 (*) (*) (*)平等贡献 之间的联合合作: 抽象的 传统上,基于神经科学原理通过手工制作的功能解决了图像显着区域的预测问题。 但是,本文通过训练卷积神经网络...
  • 在对网络不同地方的特征进行融合时,尤其是在深层网络融合浅层网络的特征的时候我们需要用到这两种融合方式,这两者的使用有有什么区别吗? 在实际中,直接使用eltwise将当前的深层特征浅层特征融合时效果并...
  • 深层复制和浅层复制

    2019-02-25 13:30:23
     要理解深层复制和浅层复制,首先需要理解复制是什么?复制即在内存中给对象创建一个本地副本,当对本地副本的内容进行修改时,并不会修改原对象内容。对于深层复制,其生成的本地副本,修改任意对象的属性,都不会...
  • JavaScript是一种高级的,动态类型化的客户端脚本语言。JavaScript为静态HTML页面添加了很多功能。像大多数其他编程语言一样,JavaScript允许支持深层复制和浅层复...
  • 浅层/深层神经网络

    2021-07-03 21:25:30
    - 知道浅层/深层神经网络的前向反向计算过程 - 掌握激活函数的使用以及选择 - 知道神经网络的参数和超参数 不用太纠结有几层的神经网络是浅层,有多少层的神经网络是深层,一般的,1、2层,3、4层,浅层没救够了。...
  • https://blog.csdn.net/ybdesire/article/details/78837688
  • //浅层克隆时,结果为女,Person2下的对象跟随着Person1下的对象设置的 // 改变而改变,People下的对象随着People的克隆传的是地址,而我们要的克 // 隆是内容的传递,所以我们还要对其进行深克隆,深克隆后,...
  • 深层网络与浅层网络

    千次阅读 2018-09-14 09:02:43
    深层网络和浅层网络可以用得分路径(Credit Assignmment Path)CAP来区分,得分路径是一条可以学习的、连接行为结果的因果链。对于FNN来讲,CAP的深度,也就是网络深度。通常情况下认为CAP&gt;2就可以认为是...
  • Java对象的深层复制是指Java对象A本身被clone成新对象B,同时A的属性也是被clone成新对象,赋值到A的各个属性上去,A与B的相同属性都引用到不同的对象;Java对象的浅层复制是指Java对象A本身被clone成新对象B,但A的...
  • 链接:https://www.zhihu.com/question/64494691编辑:深度学习与计算机视觉声明:仅做学术分享,侵删既然可以通过初试化归一化(BN层)解决梯度弥散或爆炸...
  • 其次,将从卷积神经网络中提取到的浅层特征和深层特征 进行双线性整合,使得整合后的新特征更加完善优化;最后,对遥感数据进行训练,由于新特征中有效信 息的增加,使得特征表达能力得到提高,达到提高草地分类...
  • 在开始学习之前推荐大家可以多在FlyAI竞赛服务平台多参加训练竞赛,以此来提升自己的能力。FlyAI是为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台。每周免费提供项目开源算法样例,支持算法能力变现...
  • 一、浅层复制 实现对象间数据元素的一一对应复制。 pointsArray1:对象 ...二、深层复制 当被复制的对象数据成员是指针类型时,不是复制该指针成员本身,而是将指针所指对象进行复制。 在利用pointsArray1对象对
  • 要知道深层复制浅层复制的区别,首先要了解值类型引用类型。变量分值类型引用类型,深层复制和浅层复制都是针对引用类型变量的操作。值类型: 比如数值,字符串,布尔,undifined引用类型 : 比如数组,对象,...
  • 在写这一篇的时候,偶然发现有一篇博客,相比于我之前的一篇写得更详尽,这一篇也参考这篇...elmo:将上下文当作特征,但是无监督的语料我们真实的语料还是有区别的,不一定的符合我们特定的任务,是一种双向的特征
  • 考虑到深层特征强鲁棒性和浅层特征高精度的优点,首先利用稀疏自编码器构建深度稀疏特征以提取目标特征,再根据相邻帧之间的关联信息跟踪置信度对深度特征和纹理信息进行自适应融合以提高跟踪器的性能。为了提高跟踪...
  • 浅层和深层特征经过采样后在同一尺度进行融合, 以缓解由于深层特征图维度过低造成的对小目标表达不足的问题;修改区域提取时的选框尺寸以适应实际图像中飞机的尺寸特征;用卷积层代替全连接层以减少网络参数并...
  • 深度学习和浅层学习的区别

    千次阅读 2020-10-08 23:45:52
    深度学习和浅层学习的区别 简单来说,浅层学习采取的是分段学习的手段,而深度学习采取的是端到端学习的手段。 比如给出一幅图像,若是采用浅层学习,我们首先需要从图像中检测出其关键的信息点,然后对这些信息点...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 15,015
精华内容 6,006
关键字:

浅层特征和深层特征