精华内容
下载资源
问答
  • 对抗训练在关系抽取中的应用

    千次阅读 2018-11-14 20:53:21
    这篇论文在多实例多标签的关系抽取任务中加入对抗噪声来提升模型表现。通过在CNN和RNN两种主流框架上进行对抗训练,在两种不同的数据集上都去得了不错的效果。   Methodology 在多实例多标签的关系抽取任务中,X...

    Adversarial Training for Relation Extraction


    Abstract

    对抗训练是一种在训练过程中加入噪声的正则分类算法。这篇论文在多实例多标签的关系抽取任务中加入对抗噪声来提升模型表现。通过在CNN和RNN两种主流框架上进行对抗训练,在两种不同的数据集上都去得了不错的效果。

     

    Methodology

    在多实例多标签的关系抽取任务中,X={x1,x2,. . .,xn} 代表这些句子都包含一个相同的实体对。而我们任务就是给该实体对找到一个合适的关系类型:P(r| x1, . . . , xn)。

    Sentence Encoder

    对与每个句子xi,我们都希望通过非线性转换来使其变成一个向量化的特征表示si (si =f(xi; θ))。对于如何构造模型来使其满足这一要求,我们采用关系抽取任务中常用的PCNN()和RNN来代替目标函数。

    Selective Attention

    对于注意力机制,论文中采用Lin (http://iiis.tsinghua.edu.cn/~weblt/papers/relation-classification.pdf)提出的注意力机制。

    一个实体对所要表达的关系取取决于所有包含该实体对的句子。这里αr代表注意力权重。论文中下边的公式来计算注意力权重:

    这里qr的embedding是根据关系r来计算的。

    Loss Function

    这里由于是多标签问题,K代表X表达的k种关系。

    Dropout:

    论文中对word embedding 使用dropout,对position embedding不使用dropout。

     

    Adversarial Training

    对抗训练是一种正则化分类算法,旨在通过对训练数据增加小而持久的扰动来提高模型的鲁棒性。增加扰动之后的损失函数就变成了如下形式了:

    这里Eadv就相当于对word embedding增加的小扰动。由于公式(3)在神经网络中难以计算,顾用一下公式代替:

    这里V代表X中所有词的向量化表示,||g||代表X中的所有单词的梯度变化。

     

    Experiments

    For The NYT dataset

    For The UW dataset


    Discussion

    对于CNN和RNN来说,CNN对于扰动较为敏感,RNN对于扰动较为稳定,这也说明了RNN在此任务中的鲁棒性更好,这也是为什么RNN的实验效果更好的原因。再有,对于对抗网络的训练,我们旨在对其施加小而持久的扰动,这样才能提高网络的鲁棒性。扰动过高会使得信息的语义发生改变,从而降低模型的表现。
     

    跨领域对抗训练在关系抽取中的应用

    展开全文
  • ©PaperWeekly 原创 ·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪对抗样本生成引言对抗训练是防御对抗样本一种有效的方法,但是对于它有效性的边界,一直都是...

    ©PaperWeekly 原创 · 作者|孙裕道

    学校|北京邮电大学博士生

    研究方向|GAN图像生成、情绪对抗样本生成

    引言

    对抗训练是防御对抗样本一种有效的方法,但是对于它有效性的边界,一直都是很模糊的。该论文是一篇很硬核关于对抗训练的理论性文章,作者从对抗样本跟模型参数的角度出发去分析对抗训练。

    该论文是一篇不可多得的好文章,为了能够清晰的阐述论文中的贡献,我将文章中没有展开的证明进行了补充,并对文章中的一些推导中一些小错误进行了更正,最重要的是可以温习一下大学中数学分析和高等代数中涉及到的数学知识点,例如 Lipschitz 连续性,Lipschitz 光滑性,拉格朗日函数,KKT 条件,矩阵的谱范数的求法,以及线性规划等知识点都在该论文中有所体现。

    论文标题:

    Smoothness Analysis of Loss Functions of Adversarial Training

    论文链接:

    https://arxiv.org/abs/2103.01400

    预备知识

    样本数据点 的对抗样本可以归结为如下公式:

    其中 是样本 的标签, 表示的是 范数, 表示的是神经网络的参数向量, 是表示的是对抗扰动大小, 是损失函数(交叉熵)。为了获得一个鲁棒的模型,对抗训练试图解决以下的极大极小值问题:

    Inner Loop 是为了生成对抗样本,而 Outer Loop 是用对抗样本对模型进行对抗训练。如下图所示为了能够更好的理解此公式,我画了一张示意图助于理解。

    为了获得对抗样本,通常使用投影梯度下降(PGD)。比如, 约束的 PGD 迭代地更新生成对抗样本:

    其中 表示步长, 是对可行域的投影操作,并且它将 的范围裁剪到 。在该论文中作者主要讨论对抗损失的 Lipschitz 光滑,换句话说是对抗损失梯度的 Lipschitz 连续性。为了能够更好的进行阐述,需要介绍以下几个定义。

    定义1:如果有一个常数 满足:

    则称

    定义2:如果有一个常数 满足:

    则称 。要知道目标函数的这种光滑性是基于梯度的优化收敛的一个重要性质,如果 处处可微,则有以下不等式:

    其中 的 Hessian 矩阵的算子范数。如果选择合适的学习速率(步长),基于梯度方法在以下条件下会收敛到损失函数 的平稳点:

    其中 为初始参数,并且假定集合 有界。

    假设1:对于损失函数 ,有以下不等式:

    其中, 。该假设说明了 - Lipschitz。另外, 对于 - smooth,对于 -smooth。在引理下,可以证明了以下关于对抗训练的命题:

    命题1:如果假设 1 成立的话,则有:

    从这个命题可以得出的结论为:如果损失函数的梯度不是处处 Lipschitz 连续的,基于梯度的方法是无效的。在该论文中作者通过一个简单的二元线性分类案例,详细研究了对抗损失的光滑性。

    对抗训练光滑性分析

    命题 1 的证明如下所示:设 分别为模型参数 的对抗样本,则有:

    由于 并且 ,则根据(16)公式则有:

    (此处论文公式(17)的推导 有错误)。

    对抗样本对参数的依赖性可将 看作 的函数 ,即 。如果公式(17)的第二项 有类似于 是常数,并且 )的上界,那么对抗损失的梯度就是 - Lipschitz,那么它也是 - smooth。

    作者主要分析的是对抗样本对神经网络参数的依赖性。但是需要注意的一个问题就是,深层神经网络的对抗样本 不能得出一个完美的数学形式的显示解,所以很难研究 之间的关系,作者通过使用简单的二分类问题来解决这个问题:

    二分类问题:假定有一个数据集 ,其中 是数据点, 是一个二分类标签, 是模型参数向量。令 为二分类模型, 是对抗扰动且有 。通过最小化对抗损失,则对抗训练 有:

    作者先对以上的二元线性分类问题入手,研究 之间的关系,从而得出数学形式的上的最优对抗样本 ,以下分别是对对抗训练用 范数和 范数的理论分析。

    3.1 二分类模型用 范数对抗训练

    引理1:当用 范数测量对抗扰动大小 的时候,假定模型参数 存在 且有 分别是样本数据点 关于 的对抗样本。则有以下不等式:

    此时对抗样本在参数 不包含原点 的闭集中是 Lipschitz。

    证明:求解以下优化问题获得样本数据点 的对抗样本:

    需要补充的是论文中公式(33)的 是线性二分类器的损失函数,根据公式 ,样本 属于类别 的损失要小于样本 不属于类别 ,这符合我们对损失函数定义的理解。

    该证明主要考虑的是 的这种情况,对于 的这种情况可以根据相同的方法推理得到。则拉格朗日乘函数为:

    根据 KTT 条件可以得到如下形式:

    论文中求解(22)的过程没有具体展开,需要注意的是论文中求解的是 ,所以在求解过程中需要将目标函数改成 ,则此时的拉格朗日函数为:

    则此时的 KKT 条件为:

    重新整理之后就得到了论文中的 KKT 条件的形式。

    根据公式(23)可得到公式:

    因为 是标量并且 ,所以可知 方向相反则有 。根据公式(25)则有 ,进而对抗样本可以写成

    现在需要计算 的 Lipschitz 连续性。对抗样本 的雅可比矩阵为:

    该论文在公式(27)中直接给出了 的雅可比矩阵。补充的证明如下所示:

    补充证明的结果与(27)的结果一致。根据公式(27)可知,如果 ,可知 ,则矩阵 的最大谱范数为 。又因为 ,所以可得到上确界 ,则有如下公式:

    引理 1 说明带有 约束的对抗样本在模型参数 不含有原点的情况下是 Lipschitz 连续的。根据引理 1 可以推导出如下的定理。

    定理1:当用 范数测量对抗扰动大小 的时候,假定模型参数 存在 且有 ,如下不等式成立:

    在对抗训练的过程中,损失函数 在模型参数 属于闭集且不包含原点时是

    证明:根据公式(16)可知:

    根据引理1可知:

    则有:

    根据公式(30)可知:

    定理 1 证明了在模型参数 时,具有 范数的二元线性分类模型的对抗损失是一个光滑的函数,因此当 ,基于梯度的方法在对抗训练中是有效的。但当对抗扰动的强度过大 ,则模型参数 的最优解为 ,则此时对抗训练并不能抵御对抗样本。

    3.2 二分类模型用 范数对抗训练

    引理2:当对抗扰动的大小由 范数测量且 时,模型参数 与模型参数 中的元素至少有一个元素的符号不一致( ),则对抗样本不是 Lipschitz 连续的。如果模型参数 与模型参数 中的元素的符号都一致,则有以下等式:

    此时,对抗样本在模型参数 属于闭集且不包含 ,元素符号一致时是 Lipschitz 连续的。

    证明:求解以下优化问题获得样本数据点 的对抗样本:

    该证明主要考虑的是 的这种情况,对于 的这种情况可以根据相同的方法推理得到。因为 是关于 的单调递减函数,则可以根据 最小化 ,进而可知 ,则最优的对抗样本为

    或者 时, 是常数,则 的导数在 处为 0。但当 时, 是不连续的,因此对 则有:

    根据引理 1 和引理 2 可知,具有 范数约束的对抗样本是 Lipschitz 连续的集合小于具有 范数约束的对抗样本 Lipschitz 连续的集合。根据引理 2 可得如下定理:

    定理2:当对抗扰动的大小由 范数测量且 时,模型参数 与模型参数 相对应元素符号一致时(),以下不等式成立:

    此时,当模型参数 属于闭集且不包含 ,元素符号不改变时,损失函数在对抗训练中是 smooth。

    证明:根据公式(16)可知:

    用因为从引理 2 中可知 ,则由如下不等式成立:

    实验印证

    下图是引理 1 和引理 2 的直观展示,可以发现最优对抗样本处在约束的边缘处。在 范数的约束情况下,对抗样本在以依赖模型参数 圆上连续移动;在 范数的约束情况下,即使 相差很小, 之间的距离也有 (在图中就是正方形的边长)。

    下幅图分别展示单个样本点的损失面 ,标注训练的损失面 ,具有 范数对抗训练的损失面,以及带有 的对抗训练的损失面。从图中可以发现具有 范数对抗训练的损失面在模型参数 时不光滑,具有 范数对抗训练的损失面在多处不光滑。

    更多阅读

    #投 稿 通 道#

     让你的论文被更多人看到 

    如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

    总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

    PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

    ???? 来稿标准:

    • 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

    • 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

    • PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

    ???? 投稿邮箱:

    • 投稿邮箱:hr@paperweekly.site 

    • 所有文章配图,请单独在附件中发送 

    • 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

    ????

    现在,在「知乎」也能找到我们了

    进入知乎首页搜索「PaperWeekly」

    点击「关注」订阅我们的专栏吧

    关于PaperWeekly

    PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

    展开全文
  • 网络游戏-基于生成对抗网络的关系抽取方法.zip
  • AtNRE:神经关系提取的对抗训练 该库是针对源代码: 关系提取的对抗训练 吴义(David Wu),大卫·班曼(David Bamman),斯图尔特·罗素(Stuart Russell) 加州大学伯克利分校 2017年自然语言处理中的经验方法...
  • PyTorch实现“学习使用生成式对抗网络发现跨域关系
  • 论文的动机来源与主流关系抽取模型在不同的领域甚至是不同的数据集上性能的参差不齐。论文中提出了一种领域分离网络,其含有基于本领域独立的编码器,和基于领域共享的编码器。该网络可以抽取特定类型和类型未知的两...

    Genre Separation Network with Adversarial Training for Cross-genre
    Relation Extraction
     

    Abstract

    论文的动机来源与主流关系抽取模型在不同的领域甚至是不同的数据集上性能的参差不齐。论文中提出了一种领域分离网络,其含有基于本领域独立的编码器,和基于领域共享的编码器。该网络可以抽取特定类型和类型未知的两种类型特征。

    Approach
    Overview

    这篇轮文的主要任务如下:

    si代表一个由若干单词组成的句子,ei1和ei2代表句子中的两个实体,ri代表这两个实体在句子中表达的某种关系。我们对源类型数据S建立模型,最后要将此模型应用到其他不同类型的领域当中去。

    Genre Separation Network (GSN)

    如图一所示,我们的目标就是去区分出不可知特征(如图中红色矩形),具体特殊特征(如图中蓝色和绿色)。我们用一个源类型私有CNN去抽取具体明确的私有特征fsp,用一个共享CNN去抽取类型未知的特征fsc。相同的我们同样的从其他目标类型领域中去抽取ftp和ftc。

    对于一个源类型句子,s中的每个单词wi可以被向量化的表示为 vi=

    这里vi是一个预训练好的词向量,pi代表句子中两个实体的位置embedding,ti代表句子中两个实体的类型embedding,ci是分类embedding,ηi代表是否word对于实体e1 e2 有最短路径(具体可以参阅http://aclweb.org/anthology/D17-1274)。

    为了区分出这四种不同类型的特征,我们使用loss(squared Frobenius norm)来区分。

    为了将各种类型的类型不可知特征限制为共享特征空间,我们使用对抗网络来训练。

    论文中将源领域和目标领域的genre-agnostic features送到GRL(http://jmlr.org/papers/volume17/15-239/15-239.pdf)层中,同过GRL层的处理模型将不能区分出输入特征是来自于源领域还是目标领域。

    这里di取值{0,1}用以区分样例是来自于源领域还是目标领域,Ns和Nt分布代表源领域和目标领域中的样例数目,di^代表样例来自于源领域的可能性(通过一个线性分类器得出的类型分类结果)。

    Genre Reconstruction

    对于每个类型的enre-specific feature和genre-agnostic feature,我们用fs来代表两种特征的加和。我们吧fs当做输入送进一个无池化层的DCNN(https://papers.nips.cc/paper/5485-deep-convolutional-neural-network-for-image-deconvolution.pdf)中,分别用来代表DCNN的输入和输出。重构loss如下所示

    Cross Genre Relation Extraction

    将fs送入一个全连接层来获得一个稠密向量,然后应用一个线性分类器来或得一个关系类型:

    最后我们将loss函数线性结合用于多关系类型的关系分类:

    Experiments

    具体实验结果详见论文(http://nlp.cs.rpi.edu/paper/relation2018.pdf

    展开全文
  • 对抗神经网络(GAN)

    千次阅读 2019-05-23 09:48:58
    对抗神经网络其实是两个网络的组合,可以理解为一个网络生成模拟...实验证明,利用这种网络间的对抗关系所形成的网络,在无监督及半监督领域取得了很好的效果,可以算是用网络来监督网络的一个自学习过程。 1、理论...

           对抗神经网络其实是两个网络的组合,可以理解为一个网络生成模拟数据,另一个网络判断生成的数据是真实的还是模拟的。生成模拟数据的网络要不断优化自己让判别的网络判断不出来,判别的网络也要优化自己让自己判断得更准确。二者关系形成对抗,因此叫对抗神经网络。实验证明,利用这种网络间的对抗关系所形成的网络,在无监督及半监督领域取得了很好的效果,可以算是用网络来监督网络的一个自学习过程。

    1、理论知识

           GAN由generator(生成式模型)和discriminator(判别式模型)两部分构成。

    • generator:主要是从训练数据中产生相同分布的samples,对于输入x,类别标签y,在生成式模型中估计其联合概率分布(两个及以上随机变量组成的随机向量的概率分布)。
    • discriminator:判断输入时真实数据还是generator生成的数据,即估计样本属于某类的条件概率分布。它采用传统的监督学习的方法。

          二者结合后,经过大量次数的迭代训练会使generator尽可能模拟出以假乱真的样本,而discriminator会有更精确的鉴别真伪数据的能力,最终整个GAN会达到所谓的纳什均衡,即discriminator对于generator的数据鉴别结果为正确率和错误率各占50%。

          网络结构如图所示:

    • 生成式模型又叫生成器。它先用一个随机编码向量来输出一个模拟样本。
    • 判别式模型又叫判别器。它的输入是一个样本(可以是真实样本也可以是模拟样本),输出一个判断该样本是真样本还是模拟样本(假样本)的结果。

        判别器的目标是区分真假样本,生成器的目标是让判别器区分不出真假样本,两者目标相反,存在对抗。

     

     

    展开全文
  • 本文是发表在AAAI2020上的一篇基于生成对抗网络进行知识图谱零样本关系学习的文章。在知识图谱表示学习(KG Embedding)的相关工作中,会出现一些未在训练数据集中出现过的关系(即 zero-shot relations),由于...
  • 目录 1.网络主题中的人工智能 2.将AI应用于网络域 3.网络中的AI和ML:当前的能力
  • 该文提出了以期望安全数据传输率作为支付函数的隐写博弈模型,建模了隐写方和攻击方之间的博弈对抗关系。根据相对嵌入率固定、以概率选择和自由选择三种不同情况,隐写对抗分别建模成矩阵博弈、贝叶斯博弈和二人零和...
  • 空间感 论文的数据集和代码: ,和国际计算机视觉会议(ICCV)2019 @inproceedings{yang2019spatialsense, title={SpatialSense: An Adversarially Crowdsourced Benchmark for Spatial Relation Recognition}, ...
  • 对抗样本:数据集中通过故意添加细微的干扰所形成的输入样本,受干扰之后的输入导致模型以高置信度给出一个错误的输出。 对抗网络提出的背景就是,深度学习出现了绊脚石:对抗样本;深度网络不能解决对抗样本带来...
  • 一、从刷单谈起 一年两度的618和双十一,是电商和剁手党在仲夏和金秋的两场盛宴,也是刷单党的两场狂欢。竞争与压力之下,刷单成为了新入商户和低信用商户在官方选择之外速度最快的店铺成长方式。...
  • 对抗训练

    万次阅读 多人点赞 2018-10-18 21:21:09
    在对图像算法研究的过程中发现,一些机器学习方法(包括深度学习)对对抗样本非常敏感,这些对抗样本和非对抗样本非常相似,但是模型(已经在非对抗样本中训练好的模型)却会错分这些样本。为了能更好的分类该类样本...
  • 动机远程监督关系抽取方法虽然可以使用知识库对齐文本的方法得到大量标注数据,但是其中噪声太多,影响模型的训练效果。基于 bag 建模比基于句子建模能够减少噪声的影响,但是仍...
  • 1)提出了命名实体识别和关系抽取的联合模型,可以同时识别实体和实体间的关系,并且对于实体间存在的多关系也可以一次性提取出来; ( 2)在训练过程中添加了对抗训练(AT),提升联合模型的鲁棒性和范性。 相关...
  • 针对王正平先生“道德建设是市场经济的一种支持性资源”提出了不同观点,认为道德与经济是一种对抗关系。利益原则是经济行为的准则和前提,利益驱动是经济行为的动因和动力;相反,道德是以或多或少的利益牺牲和无偿奉献...
  • 深度学习之对抗网络

    千次阅读 2017-03-02 22:37:35
     对抗网络 是个新词,全名叫 生成式对抗网络(Generative adversarial nets),就像深度学习一样,发明时间并不长。  Ian Goodfellow(生成对抗性网络的发明者)定义了 对抗网络;  Yann LeCun(三巨头之一)在...
  • (2)提出加权的关系对抗网络(wRAN)框架,利用关系判别器来区分来自不同关系的样本,并以此学习从源关系到目标关系易于迁移的关系不变性特征; (3)提出一种关系门控机制,可以完全放宽共享标签空间的假设。这种...
  • 神经网络中的对抗攻击与对抗样本

    万次阅读 多人点赞 2018-11-02 15:22:59
    在学习神经网络白盒、黑盒对抗攻击时候,搜到这篇文章,觉得作者把神经网络中的对抗攻击来龙去脉介绍的特别通俗易懂,转载一下好好学习。 什么是对抗攻击 初识神经网络会惊叹它的神奇,在不了解的情况下我相信很多...
  • 对抗样本(对抗攻击)入门

    千次阅读 多人点赞 2019-12-03 19:03:56
    什么是对抗样本? 从2013年开始,深度学习模型在多种应用上已经能达到甚至超过人类水平,比如人脸识别,物体识别,手写文字识别等等。 在之前,机器在这些项目的准确率很低,如果机器识别出错了,没人会觉得奇怪。...
  • 在这篇文章中,作者提出利用这些relations的文本描述信息以及生成对抗网络,为这些zero-shot relations学习到有语义意义的向量表示,从而避免KG中存在新出现的关系时,表示学习模型需要重新训练的问题。 1. 相关背景...
  • 雷达对抗原理-概述

    千次阅读 2020-12-30 22:08:10
    “雷达对抗是一切从敌方雷达及其武器系统获取信息(雷达侦察)破坏或扰乱敌方雷达及其武器...雷达接收到目标调制后的一部分微弱的散射信号,再根据收发信号调制的相对关系,解调出目标信息。 雷达对抗的基本原理如下图所
  • 文章目录1. introduction2.相关工作3.Model3.1 Joint learning as head ...实体关系抽取模型 对抗学习. 论文链接 code Bekoulis, G., et al. (2018). “Adversarial training for multi-context joint entity and...
  • 对抗神经网络之对抗卷积神经网络[2]

    万次阅读 多人点赞 2016-12-13 16:53:24
    上一篇博文[1]简单介绍了对抗网络的理论和大概流程。其中所谓的对抗网络可以归结为unsupervised learning 或者 generative model。从无监督学习来进行feature representation,有k-means聚类算法,auto-encoders[2],...
  • 对抗样本

    2018-11-03 10:44:10
    打个比方就是,对抗样本和正常样本之间的关系,不像实数和无理数之间的关系,好像每个正常样本边上都能找到对抗样本,而更像是存在与区间中,在这个区间中都是对抗样本。  进一步来说,在高维空间,每个像素值只...
  • 简述生成式对抗网络

    千次阅读 2017-03-10 17:43:38
    本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后通过给出一个...
  • 谈判过程中必须避免产生对抗情绪(首先自己不产生对抗情绪并用...对未来的当前交易的后续执行有影响,且影响今后你与该人的关系,该人可能宣传你的负面形象,该人可能在其它地方为难你,重要的是违反了双赢的目的,违
  • 本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后通过给出一个...
  • 对抗样本入门详解

    千次阅读 2020-03-29 23:15:49
    对抗样本基本原理

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 32,106
精华内容 12,842
关键字:

对抗关系