精华内容
下载资源
问答
  • 对抗样本的定义

    2021-05-09 10:32:39
     对抗样本主要是特指能攻击深度神经网络模型并且人眼不可察觉的恶意样本,以下为各个论文中对其的定义。 Adversarial examples are a type of attack on machine learning (ML) systems which cause ...

     对抗样本主要是特指能攻击深度神经网络模型并且人眼不可察觉的恶意样本,以下为各个论文中对其的定义。

    • Adversarial examples are a type of attack on machine learning (ML) systems which cause misclassification of inputs. 《Adversarial Examples and Metrics》
    • An adversarial sample is an input crafted to cause deep learning algorithms to misclassify. 《The Limitations of Deep Learning in Adversarial Settings》
    • Deep neural networks (DNNs) are challenged by their vulnerability to adversarial examples, which are crafted by adding small, human-imperceptible noises to legitimate examples, but make a model output attackerdesired inaccurate predictions. Adversarial attacks serve as an important surrogate to evaluate the robustness of deep learning models before they are deploye. 《Boosting Adversarial Attacks with Momentum》
    • Recent work has demonstrated that deep neural networks are vulnerable to adversarial examples—inputs that are almost indistinguishable from natural data and yet classified incorrectly by the network. In fact, some of the latest findings suggest that the existence of adversarial attacks may be an inherent weakness of deep learning models. 《Towards Deep Learning Models Resistant to Adversarial》
    • Convolutional neural networks can be easily attacked by adversarial examples, which are computed by adding small perturbations to clean inputs. 《Smooth Adversarial Training》
    • An adversarial sample can be defined as one which appears to be drawn from a particular class by humans (or advanced cognitive systems) but fall into a different class in the feature space. Adversarial samples are strategically modified samples, which are crafted with the purpose of fooling a classifier at hand. 《Towards Crafting Text Adversarial Samples》
    • The adversarial examples are always constructed by adding vicious perturbations to the original images, and the added perturbations are not easily perceived by human. 《Generative Networks for Adversarial Examples with Weighted Perturbations》
    展开全文
  • 目标检测中样本一般就是回归分支给出检测框,例如anchor-based代表方法faster-rcnn系列和yolo系列都会在任务开始前定义anchor,双阶段rcnn系列网络会在rpn网络之后给出proposals,yolo会事先对每个像素点设定...

    目标检测中样本一般就是回归分支给出的检测框,例如anchor-based的代表方法faster-rcnn系列和yolo系列都会在任务开始前定义anchor,双阶段的rcnn系列网络会在rpn网络之后给出proposals,yolo会事先对每个像素点设定anchor的比例和数量。网络最后输出的检测框就是样本。

    正负样本:算法会事先约定一个iou的阈值,检测框与label的iou大于该阈值认为是正样本,小于则是负样本

    难易样本:对于正样本中预测概率较高的说明是易分样本,负样本中预测概率较低的也是易分样本。因为这些框很容易被正确分类。但对于正样本中预测概率不高的,负样本中预测概率较高的都是难分样本,这类样本很难被正确分类。

    事实上,在目标检测领域正负样本的定义策略是不断变化的,例如现在流行的anchor-free的算法fcos,采用的是逐像素预测,只要像素点落在gt框内,该点回归出来的检测框就是正样本。正负样本的定义策略也直接影响了算法的效果好坏。通过loss提高难分正样本的影响权重不如从定义策略上下手,从根源解决问题。ATSS证实了该想法是有效的,但往往一些定义策略解决了正负样本以及难易样本的不均衡问题,却又无法在其他方面兼得。比如检测框的质量,预测出来的概率的可信度都受到影响。

    展开全文
  • 一般性模型优化的定义无所谓严格区分正负样本。实际中,应该以目标为导向,如果你的目标是识别出位置错误的信息,那么你应该定义位置错误的样本是正样本,然后根据选好的数据集进行相应的优化。如果你的目标是为了...

    标题机器学习中正负样本定义

    eg:二分类(class one: 位置错误信息;class two: 位置正确信息)
    一般性模型优化的定义无所谓严格区分正负样本。实际中,应该以目标为导向,如果你的目标是识别出位置错误的信息,那么你应该定义位置错误的样本是正样本,然后根据选好的数据集进行相应的优化。如果你的目标是为了识别出位置正确的样本,那你应该定义位置正确的样本是正样本。至于为什么要根据目标来定义正样本,因为你在优化损失函数的时候,是根据预测错误的正样本来进行优化的,如果你的目标定义错误的话,你的优化方向可能是反过来的,特别是对正负样本不平衡的数据集来说。

    展开全文
  • 样本协方差矩阵的定义与计算

    千次阅读 2020-08-13 13:47:00
    我们都知道,对于$n$个随机变量$X_1,X_2,...,X_n$,总体协方差矩阵定义为: $ \left[ \begin{matrix} D(X_1)&Cov(X_1,X_2)&\dots&Cov(X_1,X_n)\\ Cov(X_2,X_1)&D(X_2)&\dots&Cov(X...

      协方差矩阵是用来衡量一组随机变量之间的线性关系的矩阵。我们都知道,对于$n$个随机变量$X_1,X_2,...,X_n$,总体协方差矩阵定义为:

    \begin{equation} \left[ \begin{matrix} D(X_1)&Cov(X_1,X_2)&\dots&Cov(X_1,X_n)\\ Cov(X_2,X_1)&D(X_2)&\dots&Cov(X_2,X_n)\\ & &\vdots& \\ Cov(X_n,X_1)&Cov(X_n,X_2)&\dots&D(X_n)\\ \end{matrix} \right] \end{equation}

      其中

    $ \begin{aligned} &D (X_i) = E(X_i^2)-E(X_i)^2\\ &Cov(X_i,X_j) = E(X_iX_j)-E(X_i)E(X_j) \end{aligned} $

      但是对于给定样本,怎么算样本协方差矩阵呢?

      假设我们对以上$n$个随机变量同时进行独立抽样$m$次,定义第$j$次抽样获得的$n$个样本值为$x_1^j,x_2^j,...,x_n^j$。我们知道样本对总体方差的无偏估计为:

    $ \begin{gather} \begin{aligned} &\hat{\sigma}_i^2 =  \frac{1}{m-1}\sum\limits_{j=1}^m(x_i^j-\overline {x_i})^2\\  &\overline {x_i} =  \frac{1}{m}\sum\limits_{j=1}^mx_i^j \end{aligned}\label{}\end{gather} $

      样本对总体协方差的无偏估计也是类似的:

    $ \begin{gather} \begin{aligned} &\hat{Cov}(x_i,x_j) =  \frac{1}{m-1}\sum\limits_{k=1}^m(x_i^k-\overline {x_i})(x_j^k-\overline {x_j}) \\ \end{aligned}\label{} \end{gather} $

      所以样本协方差矩阵就是由$(1),(2)$两个估计量组成的。根据定义,样本协方差矩阵是能计算了,但是这样一个一个算的话时间复杂度是很高的。下面记录直接对矩阵进行的样本协方差矩阵的计算。

    样本协方差矩阵的计算

      对于$n$个随机变量$X_1,X_2,...,X_n$,同时进行$m$次独立抽样,将获得的样本值排列为矩阵:

    $ A = \left[ \begin{matrix} x_1^1&x_2^1&\dots&x_n^1\\ x_1^2&x_2^2&\dots&x_n^2\\ & &\vdots& \\ x_1^m&x_2^m&\dots&x_n^m\\ \end{matrix}\right] $

      其中每行为某次抽样获得的$n$个随机变量的样本值,每列为某个随机变量在$m$次抽样种获得的样本值。

      首先计算所有随机变量的均值,获得向量:

    $ \begin{aligned} \mu = \frac{1}{m}\sum\limits_{i=1}^mA_{i:} \end{aligned} $

      然后对$A$和$\mu$做差(向量广播到矩阵后做差),获得所有样本减去均值后的矩阵

    $ B= \left[ \begin{matrix} x_1^1 - \overline{x_1}&x_2^1 - \overline{x_2}&\dots&x_n^1- \overline{x_n}\\ x_1^2 - \overline{x_1}&x_2^2 - \overline{x_2}&\dots&x_n^2- \overline{x_n}\\ & &\vdots& \\ x_1^m - \overline{x_1}&x_2^m - \overline{x_2}&\dots&x_n^m- \overline{x_n}\\ \end{matrix}\right] $

      最后计算$B^TB$再除以$m-1$获得协方差矩阵。为了便于理解理解,下面列出$B^TB$:

    $ B^TB= \left[ \begin{matrix} \left[ \begin{matrix} x_1^1- \overline{x_1}\\x_2^1- \overline{x_2}\\\vdots\\x_n^1- \overline{x_n} \end{matrix} \right] \left[ \begin{matrix} x_1^2- \overline{x_1}\\x_2^2- \overline{x_2}\\\vdots\\x_n^2- \overline{x_n} \end{matrix} \right] \dots \left[ \begin{matrix} x_1^m- \overline{x_1}\\x_2^m- \overline{x_2}\\\vdots\\x_n^m- \overline{x_n} \end{matrix} \right] \end{matrix}\right] \left[ \begin{matrix} \left[x_1^1 - \overline{x_1}\right.&x_2^1 - \overline{x_2}&\dots&\left.x_n^1- \overline{x_n}\right]\\ \left[x_1^2 - \overline{x_1}\right.&x_2^2 - \overline{x_2}&\dots&\left.x_n^2- \overline{x_n}\right]\\ & &\vdots& \\ \left[x_1^m - \overline{x_1}\right.&x_2^m - \overline{x_2}&\dots&\left.x_n^m- \overline{x_n}\right]\\ \end{matrix}\right] $

      矩阵内部的括号表示某次抽样。以上这些操作用Python的numpy库都是很容易实现的。

    展开全文
  • 降低对少类样本的灵敏性。但我们建模就是要找到这少类样本,所以必须对数据加以处理,来提高灵敏性。 解决方案 1. 过采样 对坏的人群提高权重,即复制坏样本,提高坏样本的占比。 优点: 简单,对数据质量要求...
  • 目前推荐系统中给用户进行推荐大部分都是基于CTR预估来做的,CTR预估中很重要的一环便是正负样本的选择,那么不同业务场景下我们如何定义正负样本、如何控制正负样本的比例、正负样本选择有哪些技巧?虽然这些只是...
  • <!-- @page {margin:2cm} p {margin-bottom:0.21cm} ... 作为一个样本,这大概是第一本微积分袖珍... 一元实函数的定义:  一元实函数是有序实数偶(a,b)的集合f,对任何一个实数a,必然发生以下两种情形:
  • 作者:Alex Adam 机器之心编译 参与:Luo Sainan、一鸣 ...本文深入解析了对抗样本背后的数学定义,并帮助读者重新理解对抗样本的定义。 对抗样本是各种机器学习系统需要克服的一大障碍。对抗样本的存在表明...
  • 非均衡样本的定义 在分类问题中,每种类别的出现概率未必均衡。 比如 : 信用风险:正常用户远多于逾期/违约用户。 非平衡样本导致的问题: 降低少类样本的灵敏性。 非均衡样本的解决办法: 1 过采样 考虑对小类下...
  • 生成具有用户定义的相关矩阵 R 观察样本。可选地,用户还可以定义均值和方差。 如果未指定,这两个参数将默认为零均值向量和 1 方差向量。
  • 按照真实分布p来衡量识别一个样本的所需要的编码长度的期望(即平均编码长度)为: ![图片说明](https://img-ask.csdn.net/upload/202008/30/1598794153_763115.png) 怎么分布还分真实分布和非真实分布呢? 还有...
  • 样本空间:随机试验一切可能基本结果组成集合称为样本空间,记为Ω={w},其中w表示基本结果,又称为样本点 例如:抛硬币。 Ω={正面向上,反面向上}. 注: 一个样本空间可概括许多内容大不相同实际问题,例如...
  • 好坏样本定义 2.1模型开发流程 2.1.1 评分模型流程图 2.1.2流程图阐述 该小结提出了一些数据指标,如果不明白没有关系,往后文章笔者会一个个地解释这些指标含义和计算方法 数据获取:获取建模所...
  • 主要内容 随机试验、样本空间、随机事件...随机试验即古典概型,事件都可以列举出来,样本空间是有限集合。 S3中1和2即为互斥事件,对立事件一定是互斥事件。 概率 条件概率与乘法公式 ...
  • 生成对抗样本研究笔记

    千次阅读 2019-09-14 15:45:32
    对抗样本的定义比较简单,是指给输入样本细微的扰动,最终导致神经网络输出非预期的效果。当然这种细微的扰动是在于人类能够辨识出来目标物体的前提下的,最好这种扰动是对人类来讲无感的。目前主要的应用于两方面:...
  • 1.背景 对抗样本:数据集中通过故意添加细微的干扰所形成的输入样本,受干扰之后的输入导致... 图1 对抗样本的定义 正如图1右边展示的那样,当对熊猫数据加上一定的噪声,深度模型以99.3%的置信度将熊猫识别
  • 样本学习综述(一):概览 ...零样本学习因此孕育而生,该方法训练实例所涉及类与测试集中要分类类是不相交,完全不同,即根据训练集中可见类别数据, 通过相关先验知识, 实现对未见类别数据,进行类别...
  • 方差维基百科定义:一个随机变量方差描述是它离散程度,也就是该变量到其期望值距离。 计算公式: 样本方差:样本方差是依据所给样本对方差做出一个无偏估计。用样本去推测整体情况。 计算公式: ...
  • 在研究Criminisi修复算法基础上,提出了改进...重新定义置信度更新公式,引入曲率距离,减少因置信度更新而累计误差,提高修复顺序准确性。实验表明,改进方法能够有效提高修复效果,减少修复所需时间。
  • 针对弱监督机器学习方法,系统阐述了小样本学习、零样本学习、零—小样本学习问题定义、当前主要方法以及主流实验设计,最后基于当前研究中出现问题,对下一阶段研究方向进行了总结展望。
  • 样本文件 dataSample_new.csv , 从该样本文件中抽取2/3作为训练样本,共抽取十次,并且保证每次训练样本不同。 #导包 import numpy as np import pandas as pd import gdal import os import glob import random...
  • 首先,提出一种基于Hopfield参数估计的松弛条件模糊鉴别分析算法,重新定义每一个样本的隶属度,并在特征抽取的过程中,根据隶属度对散布矩阵的定义所做的贡献获得每个样本相应的类别信息,由此获得普通样本分类信息....
  • 总体与样本的理解

    千次阅读 2016-10-26 19:19:51
    看了一遍最基本的定义,发现非常的简洁易懂。摘录+理解如下。在概率论章节,我们对一个变量的分布模型是已经知道的,带着这个模型再去研究或者说计算相应的性质,数字特征等。但是在数理统计这部分,事情的切入角度...
  • m个样本的梯度下降

    2021-03-15 15:11:55
    m个样本的梯度下降 其中J是成本函数,相关定义如下 dw1和dw2是各项损失对参数w1的导数 我们在这里假设只有w1和w2两个参数,同理可扩展为m个样本(使用for循环) 最后在遍历结束之后,将成本函数和各个参数除以m...
  • (1)被研究的总体要有明确的定义。 (2)总体的每个个体有一个已知的概率包含在该样本中。 (3)抽样过程中必须遵循随机原则。方便样本(Convenient Sample)是指研究者出于方便性的原因而选取的“唾手可得”...
  • 在本案例研究中,我们将使用为Cauchy分布中的样本定义的样本统计信息示例来说明特征函数效用。 相应渐近概率密度函数推导基于[1],阐述和扩展了其表示各个步骤,并包括一个小扩展; 我们如此a窃原因是使这...
  • 结合机会测度理论和统计学习理论, 提出了机会空间上受噪声影响的复 hybrid 样本的复期望风险泛函、复经验风险泛函以及复经验风险最小化原则的定义, 给出并证明了机会空间上受噪声影响的复 hybrid样本的学习理论的...
  • 样本python代码实现

    千次阅读 2019-09-30 16:34:08
    前段时间老师让我处理一段时间序列,要用样本熵来处理。...关于样本的定义和物理意义,计算方法等可以参考这篇信号处理算法(2):样本熵(SampEn) 本文不对这方面内容展开描述 这是官网上对该库的介绍...
  • 通过机器学习得到样本的特征权重

    千次阅读 2019-07-30 18:52:32
    描述: 计算每个特征对样本集进行划分所获得信息增益,然后做归一化处理可以得到每个特征权重 目标: 样本降维 一种算法策略:参考决策树...假定样本集合D中第k类样本所占比例为,则D信息熵定义为 ...
  • 最近正好的用到了T检验,这里简单贴一下百度百科中对于T检验的定义和介绍: 从上面的介绍中我们不难发现:T检验是用于比较两个样本平均数的差异性的,当然它有一个适用性的前提约束条件就是样本的分布为正态...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,905
精华内容 2,762
关键字:

样本的定义