精华内容
下载资源
问答
  • Feature Engineering

    2018-04-14 15:26:16
    特征工程,特征选择,Feature Engineering for machine learning
  • Cisco Feature

    2011-02-16 08:10:55
    Cisco Feature Cisco Feature Cisco Feature Cisco Feature
  • 经过一段时间的摸索总结,对FeatureLayer,FeatureDataset,FeatureClass,Feature几个概念有了一点认识。拿出来分享一下,有错误的请多多指教,共同进步. FeatureLayer: 要素图层,承载要素数据。几个重要的接口...

    刚学AE,其中很多概念都模糊不清。经过一段时间的摸索总结,对FeatureLayerFeatureDatasetFeatureClassFeature几个概念有了一点认识。拿出来分享一下,有错误的请多多指教,共同进步.
    FeatureLayer:
    要素图层,承载要素数据。几个重要的接口如下:
    IFeatureLayer接口,用于管理要素图层的数据源,即要素类(FeatureClass)。具体察看IFeatureLayer.DataSourceType条目。


    IFeatureLayer::FeatureClass属性可以返回要素图层使用的要素类。

    IFeatureLayer::search方法,返回一个ICursor对象,仅仅指向一个要素指针。
    IFeatureSelection接口负责管理一个图层中的要素的选择集的方法和属性。
    IFeatureSelection:SelectFeatures使用一个过滤器把符合要求的要素放入图层的选择中(IEnumFeature)。
    ILayerFields接口,可以直接获得一个要素图层的要素类字段结构。

    FeatureDataset: 先看官方解释:A FeatureDataset is a container for feature classes that share the same spatial refrence. 要素数据集对象在GeoDatabase是一个简单的要素类的容器,在这个容器内放置着相同空间参考的要素类

    FeatureClass:(要素类)是用来存储空间数据的对象类,是ObjectClass的扩展。在一个要素类中的所有的要素都使用同样的字段结构,要素类与表,对象类最大的区别是它有一个几何字段,即Shape字段,用于存储要素的几何信息,这样使得用户可以在地图上看到一个要素的形状和位置。在地图上,要素类是离散对象,”小”对象(small objects)表示为点要素,”长”对象表示为线要素,”大”对象表示为多边形要素.(不要老往Shapefile上面想),不包含Raster。

    IFields接口,字段集可以通过ITable::Fields获取(IFeatureClass.Fields)IFields有2个属性,其中一个是Field(index),通过传入不同的字段索引值可以返回某个字段。两个方法,一个是FindField,用字段名作为字段的索引。IField接口是字段对象的主要接口,可以从这个接口中得到字段的主要属性,如名称、别名,字段的值域,字段的类型等。

    Feature:是要素类中一条记录,主要接口是IFeature,定义了要素对象特有的属性。IFeature ::get_Value(i)可以获得索引值为i的要素的属性值。通过循环就可以获得所有属性值。

    展开全文
  • A Discriminative Feature Learning ApproachA Discriminative Feature Learning ApproachA Discriminative Feature Learning ApproachA Discriminative Feature Learning ApproachA Discriminative Feature ...
  • FPN(feature pyramid networks)算法讲解

    万次阅读 多人点赞 2017-06-06 22:41:15
    论文:feature pyramid networks for object detection 论文链接:https://arxiv.org/abs/1612.03144论文概述: 作者提出的多尺度的object detection算法:FPN(feature pyramid networks)。原来多数的

    这篇论文是CVPR2017年的文章,采用特征金字塔做目标检测,有许多亮点,特来分享。

    论文:feature pyramid networks for object detection
    论文链接:https://arxiv.org/abs/1612.03144

    论文概述:

    作者提出的多尺度的object detection算法:FPN(feature pyramid networks)。原来多数的object detection算法都是只采用顶层特征做预测,但我们知道低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略。另外虽然也有些算法采用多尺度特征融合的方式,但是一般是采用融合后的特征做预测,而本文不一样的地方在于预测是在不同特征层独立进行的。
    代码的话应该过段时间就会开源。

    论文详解:

    下图FIg1展示了4种利用特征的形式:
    (a)图像金字塔,即将图像做成不同的scale,然后不同scale的图像生成对应的不同scale的特征。这种方法的缺点在于增加了时间成本。有些算法会在测试时候采用图像金字塔。
    (b)像SPP net,Fast RCNN,Faster RCNN是采用这种方式,即仅采用网络最后一层的特征。
    (c)像SSD(Single Shot Detector)采用这种多尺度特征融合的方式,没有上采样过程,即从网络不同层抽取不同尺度的特征做预测,这种方式不会增加额外的计算量。作者认为SSD算法中没有用到足够低层的特征(在SSD中,最低层的特征是VGG网络的conv4_3),而在作者看来足够低层的特征对于检测小物体是很有帮助的。
    (d)本文作者是采用这种方式,顶层特征通过上采样和低层特征做融合,而且每层都是独立预测的。

    这里写图片描述

    如下图Fig2。上面一个带有skip connection的网络结构在预测的时候是在finest level(自顶向下的最后一层)进行的,简单讲就是经过多次上采样并融合特征到最后一步,拿最后一步生成的特征做预测。而下面一个网络结构和上面的类似,区别在于预测是在每一层中独立进行的。后面有这两种结构的实验结果对比,非常有意思,因为之前只见过使用第一种特征融合的方式。

    这里写图片描述

    作者的主网络采用ResNet。
    作者的算法大致结构如下Fig3:一个自底向上的线路,一个自顶向下的线路,横向连接(lateral connection)。图中放大的区域就是横向连接,这里1*1的卷积核的主要作用是减少卷积核的个数,也就是减少了feature map的个数,并不改变feature map的尺寸大小。

    这里写图片描述

    自底向上其实就是网络的前向过程。在前向过程中,feature map的大小在经过某些层后会改变,而在经过其他一些层的时候不会改变,作者将不改变feature map大小的层归为一个stage,因此每次抽取的特征都是每个stage的最后一个层输出,这样就能构成特征金字塔。
    自顶向下的过程采用上采样(upsampling)进行,而横向连接则是将上采样的结果和自底向上生成的相同大小的feature map进行融合(merge)。在融合之后还会再采用3*3的卷积核对每个融合结果进行卷积,目的是消除上采样的混叠效应(aliasing effect)。并假设生成的feature map结果是P2,P3,P4,P5,和原来自底向上的卷积结果C2,C3,C4,C5一一对应。

    贴一个ResNet的结构图:这里作者采用Conv2,CONV3,CONV4和CONV5的输出。因此类似Conv2就可以看做一个stage。

    这里写图片描述

    作者一方面将FPN放在RPN网络中用于生成proposal,原来的RPN网络是以主网络的某个卷积层输出的feature map作为输入,简单讲就是只用这一个尺度的feature map。但是现在要将FPN嵌在RPN网络中,生成不同尺度特征并融合作为RPN网络的输入。在每一个scale层,都定义了不同大小的anchor,对于P2,P3,P4,P5,P6这些层,定义anchor的大小为32^2,64^2,128^2,256^2,512^2,另外每个scale层都有3个长宽对比度:1:2,1:1,2:1。所以整个特征金字塔有15种anchor。

    正负样本的界定和Faster RCNN差不多:如果某个anchor和一个给定的ground truth有最高的IOU或者和任意一个Ground truth的IOU都大于0.7,则是正样本。如果一个anchor和任意一个ground truth的IOU都小于0.3,则为负样本。

    看看加入FPN的RPN网络的有效性,如下表Table1。网络这些结果都是基于ResNet-50。评价标准采用AR,AR表示Average Recall,AR右上角的100表示每张图像有100个anchor,AR的右下角s,m,l表示COCO数据集中object的大小分别是小,中,大。feature列的大括号{}表示每层独立预测。

    这里写图片描述

    从(a)(b)(c)的对比可以看出FRN的作用确实很明显。另外(a)和(b)的对比可以看出高层特征并非比低一层的特征有效。
    (d)表示只有横向连接,而没有自顶向下的过程,也就是仅仅对自底向上(bottom-up)的每一层结果做一个1*1的横向连接和3*3的卷积得到最终的结果,有点像Fig1的(b)从feature列可以看出预测还是分层独立的。作者推测(d)的结果并不好的原因在于在自底向上的不同层之间的semantic gaps比较大。
    (e)表示有自顶向下的过程,但是没有横向连接,即向下过程没有融合原来的特征。这样效果也不好的原因在于目标的location特征在经过多次降采样和上采样过程后变得更加不准确。
    (f)采用finest level层做预测(参考Fig2的上面那个结构),即经过多次特征上采样和融合到最后一步生成的特征用于预测,主要是证明金字塔分层独立预测的表达能力。显然finest level的效果不如FPN好,原因在于PRN网络是一个窗口大小固定的滑动窗口检测器,因此在金字塔的不同层滑动可以增加其对尺度变化的鲁棒性。另外(f)有更多的anchor,说明增加anchor的数量并不能有效提高准确率。

    另一方面将FPN用于Fast R-CNN的检测部分。除了(a)以外,分类层和卷积层之前添加了2个1024维的全连接层。细节地方可以等代码出来后再研究。
    实验结果如下表Table2,这里是测试Fast R-CNN的检测效果,所以proposal是固定的(采用Table1(c)的做法)。与Table1的比较类似,(a)(b)(c)的对比证明在基于区域的目标卷积问题中,特征金字塔比单尺度特征更有效。(c)(f)的差距很小,作者认为原因是ROI pooling对于region的尺度并不敏感。因此并不能一概认为(f)这种特征融合的方式不好,博主个人认为要针对具体问题来看待,像上面在RPN网络中,可能(f)这种方式不大好,但是在Fast RCNN中就没那么明显。

    这里写图片描述

    同理,将FPN用于Faster RCNN的实验结果如下表Table3。

    这里写图片描述

    下表Table4是和近几年在COCO比赛上排名靠前的算法的对比。注意到本文算法在小物体检测上的提升是比较明显的。

    这里写图片描述

    另外作者强调这些实验并没有采用其他的提升方法(比如增加数据集,迭代回归,hard negative mining),因此能达到这样的结果实属不易。

    总结

    作者提出的FPN(Feature Pyramid Network)算法同时利用低层特征高分辨率和高层特征的高语义信息,通过融合这些不同层的特征达到预测的效果。并且预测是在每个融合后的特征层上单独进行的,这和常规的特征融合方式不同。
    期待代码

    展开全文
  • feature map理解

    万次阅读 多人点赞 2019-05-09 21:33:48
    Feature Map是什么 在CNN的设定里,Feature Map是卷积核卷出来的,你用各种情况下的卷积核去乘以原图,会得到各种各样的feature map。你可以理解为你从多个角度去分析图片。,而不同的特征提取(核)会提取不同的...

    找不到文章出处了

    Feature Map是什么

    在CNN的设定里,Feature Map是卷积核卷出来的,你用各种情况下的卷积核去乘以原图,会得到各种各样的feature map。你可以理解为你从多个角度去分析图片。,而不同的特征提取(核)会提取不同的feature,模型想要达成的目的是解一个最优化,来找到能解释现象的最佳的一组卷积核。

    例如某个核如果形似gabor算子,就会提取出边缘信息的feature,但这个特征too simple,很可能不是模型需要的特征。这与人脑神经网络(暂且这么叫吧)的功能是很相似的,比如gabor算子模拟了V1具有方向选择性的神经元,这些神经元被称为simple cell,只能对orientation做出响应,人脑依靠这些神经元检测出图像的边缘信息。
    但simple cell的功能也仅此而已,人脑若要完成一些更高级的功能(visual attention, object recognition),就需要更复杂的神经元,例如complex cell和hypercomplex cell,它们能对信号做一些更复杂的变换,而恰恰神经科学的证据表明,它们“很可能”是由V1的多个simple cell的输出信号组合而成的,比如V4的一些cell可能对angle做出响应等;考虑一个object recognition的任务,object自身具有不同的特征,不同的复杂的cell编码了其不同的特征,组合起来表达这样一种object。CNN的设定中的feature map也就对应了各层cell的信号输出。'

    举例:

    同一层:

    Fliter1 的w1,b1 运算后提取的是 形状边缘的特征: feature map1

    Fliter2 的w2,b2 运算后提取的是 颜色深浅的特征: feature map2

     

    下一层:

    Fliter3 的w3,b3 运算后提取的是 直线形状的特征: feature map3

    Fliter4 的w4,b4 运算后提取的是 弧线形状的特征: feature map4

    Fliter5 的w5,b5 运算后提取的是 红色深浅的特征: feature map5

    Fliter6 的w6,b6 运算后提取的是 绿色深浅的特征: feature map6

    同一个卷积层中的 Feature Map有什么区别?

    在卷积神经网络中,我们希望用一个网络模拟视觉通路的特性,分层的概念是自底向上构造简单到复杂的神经元。楼主关心的是同一层,那就说说同一层。
    我们希望构造一组基,这组基能够形成对于一个事物完备的描述,例如描述一个人时我们通过描述身高/体重/相貌等,在卷积网中也是如此。在同一层,我们希望得到对于一张图片多种角度的描述,具体来讲就是用多种不同的卷积核对图像进行卷,得到不同核(这里的核可以理解为描述)上的响应,作为图像的特征。他们的联系在于形成图像在同一层次不同基上的描述。下层的核主要是一些简单的边缘检测器(也可以理解为生理学上的simple cell)。

    深入讨论下

    在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map。

    抄完了。,。。
     

    展开全文
  • Feature Squeezing

    千次阅读 2018-08-05 11:18:40
    对于《Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks》的理解 很多先前的防止adversarial example的方法都是,**adversarial training and gradient masking**,都会修改原来的网络...

    对于《Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks》的理解

    很多先前的防止adversarial example的方法都是,adversarial training and gradient masking,都会修改原来的网络,本文讲述的是利用对input压缩简化的方式,去进行对于输入样本的检测,以此判断是否是对抗样例。这个方法,要精度更高,而且开销更小一些。

    原因是作者发现,神经网络的输入值,有很多“冗余”的特征项目(原文:feature input spaces are often unnecessarily large),这样会更加的有利于别人制造adversarial example。作者提供了一个Squeezing的方法,去减少没有必要的那些feature。具体方法如下:

    原文: Our strategy is to reduce the degrees of freedom available to an adversary by “squeezing” out unnecessary input
    features)

    这里写图片描述

    如上图所示:将原图用两种Squeezing方法压缩后,放入原模型,和没有Squeezing的放入原模型的结果,求一个距离。两者距离的较大值max(d1,d2),如果比一个给定的阀值T大,则说明是对抗样例。

    原因:Squeezing有降噪的功能,正常图片降噪后,和真实图片降噪后的结果差不多的,如果是对抗样例,就肯定会差比较多。

    两种压缩图像的方法 reduce the differences among individual pixels:
    **1 reducing the color depth of each pixel in an image
    2 spatial smoothing**

    1 减小每个像素的深度
    因为像素的每个channel都是2 ^8(0-255)种值,作者发现将其压缩到2^1种值,去表达图片,不但不会影响到神经网络对于图片的判断,而且会有效的降低被攻击的可能性,即加到对抗样例中的noise产生的效果会被很有效的降低。
    原始8的深度降为i 实现:
    将input先限制到[0,1] (整体除以255),然后乘上(2^i -1 ),然后取整,就将原本2^8表示的图像,降到了2^i

    2 空间维度上的缩减

    1 Local Smoothing
    有比如:Gaussian smoothing, mean smoothing,median smoothing

    这里介绍 median smoothing,它对L0的攻击有很好的防御
    我的理解是相当于卷积神经网络的pooling,取的是nxn大小filter的中值,替代原来区域的值。
    对于原理的理解是,相邻区域的像素点,值其实是相似相关的,所以我们对整张图smoothing以后不会影响到最后的总体结果,但是将那些加进去的noise去除了。

    2 Non-local Smoothing
    它压缩空间是在一个很大的区域上,给定一小块图片,然后在一个大区域上去寻找与此类似的小区域图片。衡量相似的方法有几种,比如 Gaussian, mean,median。然后将大图中间的小块,用这些小块的平均值替换掉。因为,如果添加噪音的均值为0,那么这样就把噪音消掉了、

    展开全文
  • 通常卷积神经网络中都会使用这两种类型的features: 卷积神经网络的前几层学习low level feature,后几层学习的是high level feature 文章目录一、low-level feature二、high level feature三、low-level feature和...
  • Feature分支

    千次阅读 2015-12-21 16:14:57
    添加一个新功能时,你肯定不希望因为一些实验性质的代码,把主分支搞乱了,所以,每添加一个新功能,最好新建一个feature分支,在上面开发,完成后,合并,最后,删除该feature分支。 1. 创建feature分支 $ git ...
  • featureClass 和featureDataSet的区别

    千次阅读 2016-08-31 10:23:15
    1. Feature classes 存储了简单的要素,他可以在featureDataset内也可以在dataet外,在 外面的featureclass被称作独立的featureclass。存储了拓扑关系的featureclass必须包 含在dataset中以确保他们是统一的空间索引...
  • Git Feature分支

    千次阅读 2019-07-14 19:13:24
    添加一个新功能时,你肯定不希望因为一些实验性质的代码,把主分支搞乱了,所以,每添加一个新功能,最好新建一个feature分支,在上面开发,完成后,合并,最后,删除该feature分支。 现在,你终于接到了一个新任务...
  • FeatureLayer和FeatureClass

    千次阅读 2013-09-19 19:56:28
    FeatureClass是一组空间实体的集合,在数据表中存储了统一的属性和行为,每一个FeatureClass都有一个Geometry类型,如shp文件; 2、IFeatureLayer继承自ILayer,IFeatureClass继承自IClass; 3、FeatureLayer可以...
  • feature map、卷积核、卷积核个数、filter、channel的概念解释 feather map的理解 在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起(像豆腐皮一样),其中每一个称为一个...
  • low-level feature与high-level feature

    千次阅读 2019-01-11 16:11:23
    low-level feature: 通常是指图像中的一些小的细节信息,例如边缘(edge),角(corner),颜色(color),像素(pixeles), 梯度(gradients)等,这些信息可以通过滤波器、SIFT或HOG获取; high-level feature:是建立在low level...
  • feature_selector

    千次阅读 2018-10-21 15:20:04
    今天介绍一个特征选择的包:feature_selector,它使用了5种方法进行特征选择,1、删除缺失值过高变量;2、删除共线性特征;3、删除唯一值特征;4、删除重要度为零的特征;5、删除低重要度特征,下面进行介绍。 ...
  • 标签 Lable 标签:所预测的东东实际是什么(可理解为结论),如线性回归中的 y 变量,如分类问题中...特征 Feature 特征是事物固有属性,可理解为做出某个判断的依据,如人的特征有长相、衣服、行为动作等等,一个事...
  • git feature分支

    千次阅读 2019-04-27 21:30:24
    feature分支(扩展分支) 例如假设有一个项目已经运转的很正常了,突然有一天,这个部门的领导对陈先生说,你开发一个投票系统,结果陈先生开发了90%之后领导开会讨论,发现这个投票系统很俗,绝定取消这个功能。...
  • 机器学习:特征选择(feature selection)

    万次阅读 多人点赞 2019-03-11 18:35:28
    特征选择 这篇文章是关于机器学习中常用的特征选择的一个小结,整体上包括两部分 ...单变量特征选择 (Univariate feature selection) Wrapper 递归特征消除 (Recursive Feature Elimination) Em...
  • Git之Feature分支

    千次阅读 2021-03-07 09:38:27
    Feature分支为什么要用到分支实例分析 为什么要用到分支   软件开发中,总有无穷无尽的新功能要不断添加进来。   在添加一个新功能的时候,你肯定不希望因为一些实验性质的代码,把主分支搞乱了,所以,每添加一...
  • Feature Layer

    千次阅读 2013-05-13 17:11:44
    Feature Layer是一种特殊的Graphics layer(继承自Graphics layer),除了像Graphics layer一样包含和显示Graphic features,还能提供: Editing——编辑(editing控件包含在ArcGIS Toolkit库中,通过...
  • 1.使用FeatureLayer的Search()方法获取 IFeatureCursor pFeatureCursor = pFeatureLayer.Search(null, true); IFeature pFeature=pFeatureCursor.NextFeature(); 2、使用FeatureClass的GetFeature方法 ...
  • 今天小编就为大家分享一篇pytorch 可视化feature map的示例代码,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • Py之featuretools:featuretools库的简介、安装、使用方法之详细攻略 目录 featuretools库的简介 1、Featuretools自动从时态和关系数据集创建特征 2、为什么使用Featuretools ? featuretools库的安装 ...
  • 特征图 feature map

    千次阅读 2018-12-18 16:42:08
    个人博客:小景哥哥 特征图 feature map
  • Featuretools 自动特征工程开源框架 “机器学习的圣杯之一是使越来越多的特征工程过程自动化。” ― Pedro Domingos,关于机器学习的一些有用知识 Featuretools 是一个用于自动化特征工程的 Python 库。 有关更多...
  • Featuretools介绍

    千次阅读 2017-11-17 22:35:47
    Featuretools的介绍 1、简要介绍  Featuretools是一个执行自动特征工程的框架。它擅长于为深度学习把互相关联的数据集转换为特征矩阵。 2、快速开始  下面是一个使用DFS(深度特征综合体 Deep Feature ...
  • OpenLayers Layer删除Feature

    千次阅读 2019-11-22 11:19:11
    var copyLayer = VectorLayer[i...copyLayer.getSource().removeFeature(feature); map.removeLayer(VectorLayer[i]); delete (VectorLayer[i]); VectorLayer[i] = copyLayer; map.addLayer(VectorLayer[i]); map.up...
  • Feature Engineering for Machine Learning and Data Analytics (Chapman & Hall/CRC Data Mining and Knowledge Discovery Series) ISBN-10 书号: 1138744387 ISBN-13 书号: 9781138744387 Edition 版本: 1 出版...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 537,512
精华内容 215,004
关键字:

feature