精华内容
下载资源
问答
  • http://www.searchdatabase.com.cn/showcontent_52657.htm 转载于:https://www.cnblogs.com/hexie/p/5276034.html

    http://www.searchdatabase.com.cn/showcontent_52657.htm

    转载于:https://www.cnblogs.com/hexie/p/5276034.html

    展开全文
  • 对抗训练在关系抽取中的应用

    千次阅读 2018-11-14 20:53:21
    这篇论文在多实例多标签的关系抽取任务中加入对抗噪声来提升模型表现。通过在CNN和RNN两种主流框架上进行对抗训练,在两种不同的数据集上都去得了不错的效果。   Methodology 在多实例多标签的关系抽取任务中,X...

    Adversarial Training for Relation Extraction


    Abstract

    对抗训练是一种在训练过程中加入噪声的正则分类算法。这篇论文在多实例多标签的关系抽取任务中加入对抗噪声来提升模型表现。通过在CNN和RNN两种主流框架上进行对抗训练,在两种不同的数据集上都去得了不错的效果。

     

    Methodology

    在多实例多标签的关系抽取任务中,X={x1,x2,. . .,xn} 代表这些句子都包含一个相同的实体对。而我们任务就是给该实体对找到一个合适的关系类型:P(r| x1, . . . , xn)。

    Sentence Encoder

    对与每个句子xi,我们都希望通过非线性转换来使其变成一个向量化的特征表示si (si =f(xi; θ))。对于如何构造模型来使其满足这一要求,我们采用关系抽取任务中常用的PCNN()和RNN来代替目标函数。

    Selective Attention

    对于注意力机制,论文中采用Lin (http://iiis.tsinghua.edu.cn/~weblt/papers/relation-classification.pdf)提出的注意力机制。

    一个实体对所要表达的关系取取决于所有包含该实体对的句子。这里αr代表注意力权重。论文中下边的公式来计算注意力权重:

    这里qr的embedding是根据关系r来计算的。

    Loss Function

    这里由于是多标签问题,K代表X表达的k种关系。

    Dropout:

    论文中对word embedding 使用dropout,对position embedding不使用dropout。

     

    Adversarial Training

    对抗训练是一种正则化分类算法,旨在通过对训练数据增加小而持久的扰动来提高模型的鲁棒性。增加扰动之后的损失函数就变成了如下形式了:

    这里Eadv就相当于对word embedding增加的小扰动。由于公式(3)在神经网络中难以计算,顾用一下公式代替:

    这里V代表X中所有词的向量化表示,||g||代表X中的所有单词的梯度变化。

     

    Experiments

    For The NYT dataset

    For The UW dataset


    Discussion

    对于CNN和RNN来说,CNN对于扰动较为敏感,RNN对于扰动较为稳定,这也说明了RNN在此任务中的鲁棒性更好,这也是为什么RNN的实验效果更好的原因。再有,对于对抗网络的训练,我们旨在对其施加小而持久的扰动,这样才能提高网络的鲁棒性。扰动过高会使得信息的语义发生改变,从而降低模型的表现。
     

    跨领域对抗训练在关系抽取中的应用

    展开全文
  • PyTorch实现“学习使用生成式对抗网络发现跨域关系
  • 论文的动机来源与主流关系抽取模型在不同的领域甚至是不同的数据集上性能的参差不齐。论文中提出了一种领域分离网络,其含有基于本领域独立的编码器,和基于领域共享的编码器。该网络可以抽取特定类型和类型未知的两...

    Genre Separation Network with Adversarial Training for Cross-genre
    Relation Extraction
     

    Abstract

    论文的动机来源与主流关系抽取模型在不同的领域甚至是不同的数据集上性能的参差不齐。论文中提出了一种领域分离网络,其含有基于本领域独立的编码器,和基于领域共享的编码器。该网络可以抽取特定类型和类型未知的两种类型特征。

    Approach
    Overview

    这篇轮文的主要任务如下:

    si代表一个由若干单词组成的句子,ei1和ei2代表句子中的两个实体,ri代表这两个实体在句子中表达的某种关系。我们对源类型数据S建立模型,最后要将此模型应用到其他不同类型的领域当中去。

    Genre Separation Network (GSN)

    如图一所示,我们的目标就是去区分出不可知特征(如图中红色矩形),具体特殊特征(如图中蓝色和绿色)。我们用一个源类型私有CNN去抽取具体明确的私有特征fsp,用一个共享CNN去抽取类型未知的特征fsc。相同的我们同样的从其他目标类型领域中去抽取ftp和ftc。

    对于一个源类型句子,s中的每个单词wi可以被向量化的表示为 vi=

    这里vi是一个预训练好的词向量,pi代表句子中两个实体的位置embedding,ti代表句子中两个实体的类型embedding,ci是分类embedding,ηi代表是否word对于实体e1 e2 有最短路径(具体可以参阅http://aclweb.org/anthology/D17-1274)。

    为了区分出这四种不同类型的特征,我们使用loss(squared Frobenius norm)来区分。

    为了将各种类型的类型不可知特征限制为共享特征空间,我们使用对抗网络来训练。

    论文中将源领域和目标领域的genre-agnostic features送到GRL(http://jmlr.org/papers/volume17/15-239/15-239.pdf)层中,同过GRL层的处理模型将不能区分出输入特征是来自于源领域还是目标领域。

    这里di取值{0,1}用以区分样例是来自于源领域还是目标领域,Ns和Nt分布代表源领域和目标领域中的样例数目,di^代表样例来自于源领域的可能性(通过一个线性分类器得出的类型分类结果)。

    Genre Reconstruction

    对于每个类型的enre-specific feature和genre-agnostic feature,我们用fs来代表两种特征的加和。我们吧fs当做输入送进一个无池化层的DCNN(https://papers.nips.cc/paper/5485-deep-convolutional-neural-network-for-image-deconvolution.pdf)中,分别用来代表DCNN的输入和输出。重构loss如下所示

    Cross Genre Relation Extraction

    将fs送入一个全连接层来获得一个稠密向量,然后应用一个线性分类器来或得一个关系类型:

    最后我们将loss函数线性结合用于多关系类型的关系分类:

    Experiments

    具体实验结果详见论文(http://nlp.cs.rpi.edu/paper/relation2018.pdf

    展开全文
  • 本文是发表在AAAI2020上的一篇基于生成对抗网络进行知识图谱零样本关系学习的文章。在知识图谱表示学习(KG Embedding)的相关工作中,会出现一些未在训练数据集中出现过的关系(即 zero-shot relations),由于...

    在这里插入图片描述
    论文来源:AAAI 2020
    论文链接:https://arxiv.org/pdf/2001.02332.pdf

    本文是发表在AAAI2020上的一篇基于生成对抗网络进行知识图谱零样本关系学习的文章。在知识图谱表示学习(KG Embedding)的相关工作中,会出现一些未在训练数据集中出现过的关系(即 zero-shot relations),由于relation及其相关的三元组没有在训练数据集中出现过,则无法获得该relation训练好的向量表示,从而无法进行链接预测等下游任务。在这篇文章中,作者提出利用这些relations的文本描述信息以及生成对抗网络,为这些zero-shot relations学习到有语义意义的向量表示,从而避免KG中存在新出现的关系时,表示学习模型需要重新训练的问题。

    1、相关背景

    1.1、基于生成对抗网络的零样本学习

    零样本学习,即处理那些未在训练集中出现过的类别的分类问题。在训练集中出现过的类别(即seen classes),有训练数据,此类classes经训练具备一定分类该类测试样本的能力;而未在训练集中出现过的类别(即unseen classes),无训练数据,此类classes测试样本的分类/预测依赖与seen classes建立一定的语义联系(如文本描述、属性描述等),迁移相关seen classes的样本特征,使得unseen classes的样本特征得到学习,并最终实现分类。

    近年来,随着生成对抗网络(Generative Adversarial Networks, GANs)在生成图片等方面的成熟运用,许多研究者将GANs引入零样本学习中,为unseen classes,这些缺少样本的classes生成训练样本,使得零样本学习转化为传统的监督学习,从而对unseen classes测试样本进行预测。

    此类方法的一般框架为:基于类别的语义描述(文本描述等)及一些随机噪声,输入到GAN的生成器(Generator)中,生成该类别对应的样本特征;同时,在判别器(Discriminator)中,将生成的样本(fake data)与真实样本的特征(real data)经过对抗,使得生成器生成高质量的样本。经过训练的生成对抗网络,具备为unseen classes生成样本的能力。

    1.2、知识图谱中的零样本关系学习

    知识图谱的表示学习通常用于知识图谱的补全(链接预测等)任务,对于一个三元组,在给定头实体(head entity)及关系的情况下,预测其对应的尾实体(tail entity)。这篇文章的作者们考虑了KG中的零样本关系学习,即对于新出现的一些关系,在不经过表示学习算法重新训练的情况下,依然能在这些关系上进行链接预测的任务。

    考虑KG中存在一些由seen relations组成的训练数据集:Ds={(e1,rs,e2,C(e1,rs))}D_s=\{(e_1,r_s,e_2,C_{(e_1,r_s)})\} ,其对应的测试集由unseen relations组成:Du={(e1,ru,e2,C(e1,ru))}D_u=\{(e_1,r_u,e_2,C_{(e_1,r_u)})\} ,零样本学习算法最终的任务即为这些unseen relations涉及到的head entity预测其对应的tail entity。值得注意的是,本篇文章的问题设定集中在处理zero-shot relations,未考虑会出现一些新的实体,即KG中的实体在训练集和测试集中都出现过。换句话说,在测试时,对于KG中已经存在的实体添加了一些zero-shot relations,预测它们是否构成一个完整的三元组。

    2、算法模型

    因此,本文提出使用生成对抗网络为知识图谱中的unseen relations生成特征表示,从而解决知识图谱中的零样本关系学习问题。本文的框架如下图所示。
    在这里插入图片描述
    其中,

    • 生成器(G):利用关系的描述文本,生成关系的特征表示向量(即relation embedding),此向量蕴含了KG中的语义信息;
    • 判别器(D):分类/判别生成样本和测试样本,并且为保证生成样本的质量,对生成的样本进行分类,使得样本具有inter discriminative的特征;
    • 预训练的特征编码器:编码某关系对应的三元组(即获取真实样本的特征分布)。

    下面将详细介绍这三个部分。

    2.1、特征编码器

    对于某关系rr,存在一系列的实体对集合,这些实体对描述了该关系的样本特征分布。对于其中的每一对实体,特征编码器首先通过一个entity encoder和一个neighbor encoder捕获这些实体对的蕴含的特征;随后,得到实体对的表示后,特征编码器再组合得到该关系的表示。

    Entity encoder首先将实体经过一个全连接层,随后将实体对对应的两个实体进行拼接,得到 :f2(ve)=W2(ve)+b2f_2(v_e)=W_2(v_e)+b_2uep=σ(f2(ve1)f2(ve2))u_{ep}=\sigma(f_2(v_{e_1})\oplus f_2(v_{e_2}))

    其次,neighbor encoder将实体对中每一个实体对应周围一跳范围的关系和实体进行编码,具体地,对于实体周围一跳范围的实体关系集合 Ne={(rn,en)(e,rn,en)G}\mathcal{N}_e=\{(r^n,e^n)|(e,r^n,e^n)\in \mathcal{G}\} ,neighbor encoder将每一对邻居经过拼接之后,再分别经过全连接层,最终计算所有邻居表示的均值,得到:f1(vrn,ven)=W1(vrnven)+b1f_1(v_{r^n},v_{e^n})=W_1(v_{r^n}\oplus v_{e^n})+b_1ue=σ(1Ne(rn,en)Nef1(vrn,ven))u_e=\sigma(\frac{1}{|\mathcal{N}_e|}\sum_{(r^n,e^n)\in \mathcal{N}_e}f_1(v_{r^n},v_{e^n}))

    其中,对于所涉及实体和关系的初始化表示(vrnv_{r^n},venv_{e^n}, etc.)可由TransE等经典的KG embedding模型得到。

    对于该实体对,拼接上述实体表示,可得到关系特定的实体对表示:x(e1,e2)=ue1uepue2x_{(e_1,e_2)}=u_{e_1}\oplus u_{ep}\oplus u_{e_2}

    整体过程如下图所示:
    在这里插入图片描述
    最终,对关系rr所有的实体对的表示进行聚类可得到关系rr的特征表示:xcr=1Nri=1Nrx(e1,e2)ix_c^r=\frac{1}{N_r}\sum_{i=1}^{N_r}x_{(e_1,e_2)}^i

    此特征编码器的训练,文章采用了基于margin loss的预训练策略。具体地,对于关系rr,首先选定一些reference triples作为标准集,即 {e1,rs,e2}\{e_1^{\ast},r_s,e_2^{\ast}\} ,可得到关系的reference embedding x(e1,e2)x_{(e_1^{\ast},e_2^{\ast})} ,在训练时,使正样本 {e1+,rs,e2+}\{e_1^+,r_s,e_2^+\} 的表示逼近reference embedding,而负样本 {e1+,rs,e2}\{e_1^+,r_s,e_2^-\} 的表示远离 reference embedding,loss function为:Lw=max(0,γ+scorew+scorew)L_w=max(0,\gamma+score_w^+-score_w^-)

    其中,正样本的score即为计算正样本和reference triple之间的cosine相似度:scorew+=cosine(x(e1+,e2+),x(e1,e2))score_w^+=cosine(x_{(e_1^+,e_2^+)},x_{(e_1^{\ast},e_2^{\ast})})

    2.2 生成器

    生成器利用关系rr的描述文本及噪声,生成关系rr的特征表示,如下图所示。
    在这里插入图片描述
    对于关系的描述文本,作者利用文本中每个词的word embedding,并通过计算文本中词的TF-IDF权重,对这些word embedding进行加权求和得到文本描述的向量表示。随后,文本的向量表示与随机采样的噪声共同作为生成器的输入。其中,生成器由两层全连接层及激活层函数组成,最终,生成关系rr的特征表示。生成器的loss function为:LGθ=Ezpz[Dϕ(Gθ(Tr,z))]+Lcls(Gθ(Tr,z))+LPL_{G_{\theta}}=-\mathbb{E}_{z\sim p_z}[D_{\phi}(G_{\theta}(T_r,z))]+L_{cls}(G_{\theta}(T_r,z))+L_P

    其中,生成样本表示为 Gθ(Tr,z)G_{\theta}(T_r,z)TrT_r为关系rr的文本描述表示,zz为随机采样的噪声;loss function的第一项为GAN中的Was.serstein loss,第二项为分类生成样本的分类损失项,第三项为 visual pivot 正则化项,即使得生成样本的中心逼近真实样本的中心。

    2.3、判别器

    判别器使得真实的样本和生成的样本进行对抗,从而训练生成器生成高质量样本的能力,其loss function为:LDϕ=Ezpz[Dϕ(Gθ(Tr,z))]Expdata[Dϕ(x)]+12Lcls(Gθ(Tr,z))+12Lcls(x)+LGPL_{D_{\phi}}=\mathbb{E}_{z\sim p_z}[D_{\phi}(G_{\theta}(T_r,z))]-\mathbb{E}_{x\sim p_{data}}[D_{\phi}(x)]+\frac{1}{2}L_{cls}(G_{\theta}(T_r,z))+\frac{1}{2}L_{cls}(x)+L_{GP}

    其中,前两项为计算真实样本和生成样本的Wasserstein距离,第三项、第四项分别为分类真实样本和生成样本的分类损失函数,最后一项为Wasserstein GAN网络中为保证Lipschitz constraint 约束的GP优化项(即规范判别器的梯度下降)。

    2.4、Unseen relations的分类/预测

    基于前面训练好的生成器,给定unseen relation的文本描述,可生成其对应的relation embedding: x~ruGθ(Tr,z)\tilde{x}_{r_u}\gets G_{\theta}(T_r,z)。预测时,对于一个query triple (e1,ru)(e_1,r_u) ,其候选尾实体对应的score计算如下:score(e1,ru,e2)=cosine(x~ru,x(e1,e2))score_{(e_1,r_u,e_2)}=cosine(\tilde{x}_{r_u},x_{(e_1,e_2)})

    为了验证生成器的泛化能力,对于关系rr可生成一组特征表示向量,其中的每一个与测试样本计算score之后取均值:score(e1,ru,e2)=1Ntesti=1Ntestscore(e1,ru,e2)iscore_{(e_1,r_u,e_2)}=\frac{1}{N_{test}}\sum_{i=1}^{N_{test}}score_{(e_1,r_u,e_2)}^i

    3、实验

    针对提出的zero shot relation learning,文章基于NELL和Wiki构建了两个数据集:NELL-ZS、Wiki-ZS,其中数据集中的每一个关系均有可获取的文本描述。其数据统计情况如下图所示:
    在这里插入图片描述
    考虑到现有的KG embedding的算法无法对unseen relation实现预测,文章提出了三种针对unseen relations改进的baselines:ZS-TransE, ZS-DistMult 和 ZS-ComplEx。这三种baseline,在原TransE, DistMult 和ComplEx算法的基础上,取代原本算法中对关系进行随机初始化的操作,利用关系的文本描述学习关系的特征表示。具体地,与生成器的输入类似,同样也使用TF-IDF加权的word embedding得到文本的表示,再经过两层全连接层得到关系的特征表示。该表示将与实体随机初始化的表示在表示学习算法score function的训练下进行优化。由此,对于unseen relations即可通过关系的文本描述得到关系的表示,从而进行链接预测等任务。

    在两个数据集上对比baselines结果如下:
    在这里插入图片描述
    其中,ZSGAN为本文中提出的方法,ZSGAN(TransE) 等表示在2.1中特征编码时,使用TransE预训练的embedding对实体和关系进行初始化。结果表示,本文提出的ZSGAN对比baseline在两个数据集上取得了不错的效果。同时,值得注意的是,在unseen relations存在的情况下,baseline中的DistMult具有一定的学习优势。

    文章同时分析了生成样本的质量,具体地,计算生成的relation embedding和其对应真实样本的embedding之间的cosine距离,在一些关系上的对比结果如下所示:
    在这里插入图片描述

    4、总结

    本文首次提出了知识图谱中的零样本关系学习问题,同时引入生成对抗网络以生成relation embedding的方式,解决预测时新出现的unseen relations的预测问题。

    文本中蕴含的relation之间的关联信息,为seen relations和unseen relations构建了类别层面的关联,使得生成对抗网络在seen relations的训练下,可为unseen relations生成语义丰富的特征表示。
    除文本描述信息外,一般的零样本学习也利用了属性描述及类别间层次关系等信息,在知识图谱零样本学习的场景中,利用一些relation间更加high-level的关系(如共现关系等)或关系间共有的属性信息,对零样本的关系学习是否有贡献也是值得思考的问题。

    同时,本文将研究点关注于KG中zero-shot relation,对于KG中新出现的一些实体(即zero-shot entity)的学习也是值得探索的方向。

    展开全文
  • 对抗神经网络(GAN)

    千次阅读 2019-05-23 09:48:58
    对抗神经网络其实是两个网络的组合,可以理解为一个网络生成模拟...实验证明,利用这种网络间的对抗关系所形成的网络,在无监督及半监督领域取得了很好的效果,可以算是用网络来监督网络的一个自学习过程。 1、理论...
  • 一、从刷单谈起 一年两度的618和双十一,是电商和剁手党在仲夏和金秋的两场盛宴,也是刷单党的两场狂欢。竞争与压力之下,刷单成为了新入商户和低信用商户在官方选择之外速度最快的店铺成长方式。...
  • 动机远程监督关系抽取方法虽然可以使用知识库对齐文本的方法得到大量标注数据,但是其中噪声太多,影响模型的训练效果。基于 bag 建模比基于句子建模能够减少噪声的影响,但是仍...
  • 1)提出了命名实体识别和关系抽取的联合模型,可以同时识别实体和实体间的关系,并且对于实体间存在的多关系也可以一次性提取出来; ( 2)在训练过程中添加了对抗训练(AT),提升联合模型的鲁棒性和范性。 相关...
  • 题目: Generative Adversarial Zero-Shot Relation Learning for Knowledge Grapths 来源: AAAI2020 原文链接: https://arxiv.org/pdf/2001.02332.pdf 转载自: 学习ML的皮皮虾... 《基于对抗生成的Ze...
  • 北京时间10月5日消息,据国外媒体报道,Google本周二宣布同Sun公司建立合作伙伴关系。根据协议,Google和Sun将互相推广和经销对方的软件产品。分析人士认为,Google同Sun的合作将对微软在桌面软件市场的垄断形成巨大...
  • (2)提出加权的关系对抗网络(wRAN)框架,利用关系判别器来区分来自不同关系的样本,并以此学习从源关系到目标关系易于迁移的关系不变性特征; (3)提出一种关系门控机制,可以完全放宽共享标签空间的假设。这种...
  • 在这篇文章中,作者提出利用这些relations的文本描述信息以及生成对抗网络,为这些zero-shot relations学习到有语义意义的向量表示,从而避免KG中存在新出现的关系时,表示学习模型需要重新训练的问题。 1. 相关背景...
  • 文章目录1. introduction2.相关工作3.Model3.1 Joint learning as head ...实体关系抽取模型 对抗学习. 论文链接 code Bekoulis, G., et al. (2018). “Adversarial training for multi-context joint entity and...
  • 第十五章 表示学习 ...半监督解释因果关系Causal Factors - 生成式对抗网络 这章的翻译让初学者看得有点累,只好把原文找出来对比看。 表示学习的一个重要问题是”什么原因能够使一个表示比另一个表示更好?...
  • 生成对抗网络

    2018-09-18 10:53:44
    , 有分析图片的 CNN 卷积神经网络 , 有分析序列化数据, 比如语音的 RNN 循环神经网络 , 这些神经网络都是用来输入数据, 得到想要的结果, 我们看中的是这些神经网络能很好的将数据与结果通过某种关系联系起来 ...
  • 谈判过程中必须避免产生对抗情绪(首先自己不产生对抗情绪并用...对未来的当前交易的后续执行有影响,且影响今后你与该人的关系,该人可能宣传你的负面形象,该人可能在其它地方为难你,重要的是违反了双赢的目的,违
  • 简述生成式对抗网络

    千次阅读 2017-09-15 23:51:22
    本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后通过给出一个...
  • 对抗机器学习简介

    2019-10-02 17:00:28
    机器学习近年来在许多方面取得了巨大的成功,但是安全性问题却一直没有得到...和接下来说的对抗机器学习是什么关系呢? 对抗机器学习(Adverserial Machine Learning)作为机器学习研究中的安全细分方向,在一定程...
  • 雷达对抗原理-概述

    2020-12-30 22:08:10
    “雷达对抗是一切从敌方雷达及其武器系统获取信息(雷达侦察)破坏或扰乱敌方雷达及其武器...雷达接收到目标调制后的一部分微弱的散射信号,再根据收发信号调制的相对关系,解调出目标信息。 雷达对抗的基本原理如下图所
  • 生成对抗神经网络

    千次阅读 2018-04-23 15:12:33
    对抗生成网络,其实就像周伯通,左手打右手,不用陪练,自己就能练成绝世武功! 先说一个对我学习有很大帮助的故事: 刚参加工作时,顶头上级是跟我年纪相仿的年轻人,据说家里有点关系。 有一天交给我一个任务,...
  • 本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后通过给出一个...
  • 对抗生成网络

    2019-07-23 18:10:42
    互补提升 ...在min的时候,我是训练生成器G,使得目标函数变小,在max的时候,我是训练判别器D,使得目标函数变大。--当X时真实数据时,有一个分项,当我...卷积操作和反卷积操作是指size上的对应关系,两种变...
  • 上文 【对抗机器学习——FGSM经典论文 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES】在理论层面介绍了Fast gradient Sign Method 是如何寻找对抗样本的。它的核心思想是假设神经网络最后的目标函数J(θ,x,y)J(\...
  •  其次,他们之间又存在着一种对抗关系,他们的搜查地是杜拉的城堡,而弗洛伊德都要在其中翻箱例柜,杜拉肯定会感到自己受到了侵犯,她害怕自己所有的秘密在别人的透视之下,无所遁形,而且没有一个城堡的主人会...
  • 人工智能 5 对抗搜索

    2021-02-01 09:51:43
    行为关系与决策科学,包括人类与非人类(如计算机等) 博弈是AI研究的好材料 机器(玩家)需要“类人”的智能,要求在有限的时间内进行决策 博弈的特征 零和与非零和博弈 零和博弈 智能体之间是对立的方式 ...
  • 本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后给出一个基于...
  • GAN (生成对抗网络)是近几年深度学习中一个比较热门的研究方向,它的变种有上千种。 1.什么是GAN GAN的英文全称是Generative Adversarial Network,中文名是生成对抗网络。它由两个部分组成,生成器和鉴别器(又称...
  • 针对当前网络安全领域知识获取中所依赖的流水线模式存在实体识别错误的传播,未考虑实体识别与关系抽取任务间的联系,以及模型训练缺乏标签语料的问题,提出一种融合对抗主动学习的端到端网络安全知识三元组抽取方法...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 508
精华内容 203
关键字:

对抗关系