精华内容
下载资源
问答
  • 副词中的位置

    千次阅读 2008-01-31 11:33:00
     2)当句子的谓语动词是行为动词时,频度副词一般放在谓语动词之前。句有be或助动词、情态动词时,放在其后。 【例如】 I often go to the cinema on weekend with my husband. I can hardly understand him for...
    1)修饰形容词或副词时,通常放在前面。

      2)当句子的谓语动词是行为动词时,频度副词一般放在谓语动词之前。句中有be或助动词、情态动词时,放在其后。

      【例如】

      I often go to the cinema on weekend with my husband. I can hardly understand him for what he said was really confusing.have never been abroad until now.

      3)程度副词修饰形容词或副词,通常放在被修饰的形容词之前。但是enough总是放在所修饰的形容词或副词之后。

      【例如】

      The boy didn't work hard enough. He is quite diligent. But his achievement is not good enough.

      4) only的位置比较灵活,修饰哪个词,就放在哪个词的前面,以示强调。

      【例如】

      I only saw John yesterday. I didn't see his wife. I have bought two kilos of potatoes only. Only in the afternoon, can you borrow books from the university library. 
     
    展开全文
  • 摘要 匹配自然语言句子对于许多应用(例如信息检索和问答)至关重要。...具体地,每个位置句子表示是位置的句子表示,由双向长短期记忆(Bi-LSTM)生成。最终,通过k-Max池化和多层感知器变换,通过...

    摘要

    匹配自然语言句子对于许多应用(例如信息检索和问答)至关重要。现有的深度模型依赖于单个句子表示或多个粒度表示进行匹配。但是,这种方法无法在匹配过程中很好地捕获上下文相关的局部信息。为了解决这个问题,我们提出了一种新的深度架构,以匹配两个具有多个位置表示形式的句子。具体地,每个位置句子表示是在该位置的句子表示,由双向长短期记忆(Bi-LSTM)生成。最终,通过k-Max池化和多层感知器变换,通过聚合这些不同位置的句子表示之间的交互,最终产生匹配分数。我们的模型具有以下优点:(1)通过使用Bi-LSTM,整个句子的丰富上下文被用来捕获每个位置句子表示中的上下文局部信息; (2)通过与多个位置句子表示匹配,可以灵活地在句子中聚合不同的重要上下文本地化信息以支持匹配; (3)通过对不同任务(例如问答和句子填空)的实验证明了我们模型的优越性。

    1.介绍

    语义匹配是自然语言处理(NLP)中许多应用的关键任务,例如信息检索(Li和Xu,2013),问答(Berger等,2000)和释义识别(Dolan,Quirk和Brockett,2004)。以问答为例,给定一对问题和答案,需要一个匹配函数来确定这两个句子之间的相似程度。
      最近,基于深度神经网络的模型已在该领域中应用并取得了一些重要进展。许多深度模型遵循该范例,首先将整个句子表示为单个分布式表示,然后计算两个向量之间的相似度以输出匹配分数。 例子包括DSSM(Huang等,2013),CDSMM(Shen等,2014),ARC-1(Hu等,2014),CNTN(Qiu和Huang,2015)和LSTM-RNN(Palangi等,2015)。 通常,这种范例非常简单易行,但是,主要缺点在于,将这样一个复杂的句子压缩为单个向量时会丢失重要的局部信息。以一个问题和两个答案为例:
      Q:Which  teams  won  top  three  in  the  World  Cup?Q: “Which~~teams~~won~~top~~three~~in~~the~~World~~Cup?”
      A1:Germany  is  the  champion  of  the  World  Cup.A1: “Germany~~is~~the~~champion~~of~~the~~World~~Cup.”
      A2:The  top  three  of  the  European  Cup  are  Spain,Netherlands  and  Germany.A2: “The~~top~~three~~of~~the~~European~~Cup~~are~~Spain, Netherlands~~and~~Germany. ”
      我们可以看到诸如“前三名”和“世界杯”之类的关键字对于Q在A1和A2之间确定是哪个答案来说非常重要。当加入“前三名”时,显然A2比A1好;如果加入“世界杯”,我们会得出相反的结论。但是,通过将复杂的句子直接表示为单个紧凑向量,单句表示方法无法很好地捕获此类重要的本地信息(Bahdanau,Cho和Bengio 2014)。
      其他一些工作着眼于将多粒度的考虑带入到匹配过程,例如单词,短语和句子级别的表示形式。例子包括ARC-II(Hu等人2014),RAE(Socher等人2011),DeepMatch(Lu和Li 2013),Bi-CNN-MI(Yin和Schutze¨2015a)和MultiGranCNN(Yin和Schutze 2015b) 。它们可以缓解上述问题,但距离完全解决语义匹配问题还差很远。这是因为它们被限制为通过直接应用涉及单词和短语级别的表示来很好地捕获上下文相关的本地信息。以下面的答案为例:
      A3:The  top  three  attendees  of  the  European  Cup  are  from  Germany,France  and  Spain.A3: “The~~top~~three~~attendees~~of~~the~~European~~Cup~~are~~from~~Germany, France~~and~~Spain.”
      显然,对Q而言,A2优于A3,尽管它们都具有重要的关键字“前三名”。这是因为从整个句子的角度来看,“前三名”的两个术语具有不同的含义。A2中的“前三名”专注于谈论前三名足球队,而A3中的“前三名”则表明来自不同国家的前三名参与者。但是,现有的多个粒度深度模型无法很好地区分两个“前三名”。这主要是因为单词/短语级别表示形式是局部的(通常取决于固定窗口大小的上下文),因此仅限于从以上角度反映这些单词/短语的真实含义(例如“前三名”)。
      从以上分析可以看出,两个句子之间的匹配程度要求从上下文局部的角度来表示句子。这种关键的发现促使我们从一个句子的多个角度进行匹配。也就是说,我们可以在匹配过程中使用多个句子表示形式,每个句子表示形式都集中在不同的局部信息上。
      在本文中,我们提出了一种新的深度神经网络架构,用于与多个位置句子表示进行语义匹配,即MV-LSTM。首先,每个位置句子表示被定义为一个特定的句子表示。在本文中,我们采用双向长短期记忆(Bi-LSTM)来生成此类位置句子表示形式。专门针对每个位置,Bi-LSTM可以获得两个隐藏的向量,以便在关注该位置时从两个方向反映整个句子的含义。位置句子表示可以通过直接将其连接而生成。第二步是对这些位置句子表示之间的交互进行建模。在本文中,采用三种不同的操作来建模两个句子表示间的相互作用:余弦,双线性和张量层。最后,我们采用k-Max池化策略,以自动选择前k个最强的交互信号,并通过多层感知器(MLP)对其进行汇总以产生最终匹配分数。我们的模型是端到端的,并且通过反向传播和随机梯度下降从训练数据中自动学习所有参数。
      我们可以看到我们的模型可以在匹配过程中很好地捕获上下文相关的局部信息。与单句表示方法相比,MV-LSTM通过引入多个位置的句子表示可以很好地捕获重要的局部信息。与多个粒度深层模型相比,MV-LSTM利用Bi-LSTM生成每个位置语句表示,利用丰富的上下文来确定局部信息的重要性。最后,我们在两项任务上进行了广泛的实验,即问答和句子填空,以验证这些论点。我们的实验结果表明,MV-LSTM在这两项任务上的性能均优于几个现有基准,包括ARC-1,ARC-II,CNTN,DeepMatch,RAE,MultiGranCNN和LSTM-RNN。
      这项工作的贡献在于三个方面:

    • 提出与多个位置的句子表示进行匹配,以捕获重要的上下文相关局部信息;
    • 一种新的深度架构,用于聚合那些位置句子表示形式的交互以进行语义匹配,每个位置句子表示形式都由Bi-LSTM生成;
    • 通过两个任务(即问答和句子填空)的实验来展示我们模型的优势。

    2.我们的方法

    在这里插入图片描述
      在本节中,我们介绍了用于将两个句子以多个位置句子表示的形式进行匹配的新的深度架构,即MV-LSTM。如图1所示,MV-LSTM由三部分组成:首先,每个位置句子表示是一个特定位置的表示,由双向长短期记忆(Bi-LSTM)生成;其次,不同位置表示之间的相互作用通过不同的相似度函数形成相似度矩阵/张量。最后,最终的匹配得分是通过k-Max池化和多层感知器对此类相互作用进行汇总而产生的。

    2.1 步骤1:位置句子表示

    每个位置句子表示形式都需要反映网络到达该位置时整个句子的表示形式。因此,使用Bi-LSTM生成这种表示形式是很自然的,因为LSTM可以捕获句子中的长期和短期依存关系。此外,它具有很好的属性,可以在表示过程中强调该位置附近的单词(Bahdanau,Cho和Bengio 2014)。
      首先,我们对LSTM和Bi-LSTM进行介绍。长短期记忆(LSTM)是循环神经网络的一种高级类型,它通过进一步使用记忆单元和门来学习序列中的长距离依赖性(Hochreiter和Schmidhuber 1997)。 LSTM有几种变体(Greff等人2015),我们采用(Graves,Mohamed和Hinton 2013)中使用的一种常见实现方式,但没有(Palangi等人2015)那样的peephole连接。给定输入句子S=(x0,x1,...,xT)S =(x_0,x_1,...,x_T),其中xtx_t是在位置tt处的单词嵌入。LSTM输出位置tt的表示形式hth_t,如下所示。
    在这里插入图片描述
      其中i,f,oi,f,o分别表示输入门,遗忘门和输出门。cc是存储在记忆单元中的信息,hh是隐藏状态。与单向LSTM相比,双向LSTM通过使用两个单独的LSTM处理来自两个方向的数据以利用从前和将来的上下文(Schuster和Paliwal 1997)。一个LSTM在正向处理输入序列,而另一个LSTM在反向处理输入。因此,对于每个位置,我们可以获得两个向量ht\overrightarrow {h}_tht\overleftarrow {h}_t
      直观上,ht\overrightarrow {h}_tht\overleftarrow {h}_t从两个方向反映整个句子的含义,因此,将该位置的句子表示形式定义为它们的组合是合理的。具体而言,对于每个位置tt,通过将ht\overrightarrow {h}_tht\overleftarrow {h}_t连接起来生成第tt个位置句子表示ptp_t,即pt=[htT,htT]Tp_t = [\overrightarrow {h}_t^T,\overleftarrow {h}_t^T]^T,其中()T(·)^T表示转置操作,在后面也将使用。

    2.2 步骤2:两个句子间交互

    基于位置句子表示,我们可以对不同位置的一对句子之间的交互进行建模。许多相似性函数可用于建模pXip_{Xi}pYjp_{Yj}之间的交互,其中pXip_{Xi}pYjp_{Yj}分别代表两个句子SXS_XSYS_Y的第ii和第jj个位置句子表示。在本文中,我们使用三个相似度函数,包括余弦,双线性和张量层。 给定两个向量uuvv,这三个函数将输出如下的相似性得分s(u,v)s(u,v)
      (1)余弦相似度
      余弦相似函数是建模交互的常用函数。相似度分数被视为两个向量的夹角:
    s(u,v)=uTvuv,s(u,v)=\frac{u^Tv}{||u||\cdot ||v||},
    其中||\cdot||表示L2正则。
      (2)双线性函数
      双线性函数还考虑了不同维度之间的相互作用,因此与余弦函数相比可以捕获更复杂的相互作用。具体而言,相似度得分的计算如下:
    s(u,v)=uTMv+b,s(u,v)=u^TMv+b,
    其中MM是重新加权不同维度之间的相互作用的矩阵,b是偏差。当应用双线性函数来计算句子SXS_XSYS_Y的两个对应位置句子表示pXip_{Xi}pYjp_{Yj}之间的相互作用时,显然双线性可以很好地捕获hXi\overrightarrow{h_{Xi}}hYj\overleftarrow{h_{Yj}}之间的相互作用,而余弦函数则不能。因此,与余弦函数相比,双线性函数可以捕获两个位置句子表示之间更有意义的交互。
      (3)张量层
      张量层比上述两个函数更强大,它可以回滚到其他相似性指标,例如双线性和点积。在建模两个向量之间的相互作用时,它也显示出极大的优势(Socher等人2013b; Socher等人2013a; Qiu和Huang 2015)。这就是我们在本文中选择它作为交互函数的原因。除了像双线性和余弦那样输出标量值之外,张量层还输出矢量,其计算公式如下所述:
    s(u,v)=f(uTM[1:c]v+Wuv[uv]+b),s(u,v)=f(u^TM^{[1:c]}v+W_{uv}\left[\begin{matrix}u\\v\end{matrix}\right]+b),
    其中Mi,i[1,...,c]M_i,i∈[1,...,c]是张量参数的一层,WuvW_{uv}bb是线性部分的参数。ff是一个非线性函数,在本文中我们使用修正线性单元f(z)=max(0,z)f(z)= max(0,z)(Glorot,Bordes和Bengio 2011),因为它总是输出一个正值,该值可以作为相似性兼容。

    2.3 步骤3:交互整合

    现在我们介绍架构的第三步,即如何整合不同位置句子表示之间的这种交互以输出两个句子的匹配分数。
      (1)K-Max池化
      两个句子之间的匹配通常由一些较强的交互信号确定。因此,我们使用k-Max池化来自动提取矩阵/张量中的前k个最强的交互值,类似于(Kalchbrenner,Grefenstette和Blunsom 2014)。对于交互矩阵,我们扫描整个矩阵,并根据降序将前k个值直接返回以形成向量qq。对于交互张量,返回张量的每个切片的前k个值以形成向量,最后,将这些向量进一步串联到单个向量qq上。
      k-Max池化是有意义的:假设我们使用余弦相似度,当k=1k=1时,它直接输出矩阵中最大的交互值,这意味着在我们的模型中仅考虑“最佳匹配位置”;而kk大于1表示我们利用前kk个匹配位置进行语义匹配。因此,很容易检测出最佳匹配位置在哪里,以及是否需要聚合来自不同位置的多个交互以进行匹配。我们的实验表明,最佳匹配位置通常不是第一个或最后一个位置,并且通过在多个位置上进行匹配可以获得更好的结果。
      (2)多层感知
      最后,我们使用MLP通过汇总由k-Max池化过滤的强交互信号来输出匹配分数。具体而言,首先将通过k-Max池化获得的特征向量qq带入全连接隐藏层,以获得更高级别的表示rr。 然后通过线性变换获得匹配分数ss
    r=f(Wrq+br),s=Wsr+bs,r=f(W_rq+b_r),s=W_sr+b_s,
    其中WrW_rWsW_s代表参数矩阵,而brb_rbsb_s是相应的偏差。
      (3)模型训练
      对于不同的任务,我们需要利用不同的损失函数来训练我们的模型。例如,如果将任务形式化为排名问题,我们可以利用成对排名损失(例如铰链损失)进行训练。 给定一个三元组(SX,SY+,SY)(S_X,S^+_Y,S^-_Y),其中当SY+S^+_YSXS_X匹配时,其评分高于SYS^-_Y,则损失函数定义为:
    L(SX,SY+,SY)=max(0,1s(SX,SY+)+s(SX,SY))\mathcal L(S_X, S^+_Y, S^−_Y) = max(0, 1 − s(S_X, S^+_Y) + s(S_X, S^−_Y))
    其中s(SX,SY+)s(S_X,S^+_Y)s(SX,SY)s(S_X,S^-_Y)是相应的匹配分数。
      该模型的所有参数,包括单词嵌入,Bi-LSTM,交互函数和MLP的参数,均由反向传播和随机梯度下降共同训练。具体来说,我们在训练的所有参数上都使用Adagrad(Duchi,Hazan和Singer 2011)。

    2.4 讨论

    MV-LSTM作为特殊情况可以涵盖LSTM-RNN(Palangi等人,2015年)。具体来说,如果仅考虑由单个方向性LSTM生成的每个句子的最后位置句子表示,则MV-LSTM会直接归结为LSTM-RNN。因此,与LSTM-RNN相比,MV-LSTM更通用,并且能够利用更多的位置句子表示进行匹配。
      MV-LSTM隐式考虑了多个粒度。通过使用Bi-LSTM(具有在表示句子时涉及长期和短期依赖关系的能力),MV-LSTM有可能捕获重要的n-gram匹配模式。此外,与使用固定窗口大小的基于CNN的模型相比,MV-LSTM灵活地自适应地包含重要的粒度。

    展开全文
  • 提出将 BERT 用了关系抽取任务, 探索了实体和实体位置在预训练模型中的结合方式。 可以通过实体前后加标识符得方式表明实体位置, 代替传统位置向量的做法,论文也证实了这种方法得有效性。 2. 论文模型详解 ...

    论文针对句子级别的关系抽取问题提出了一种结合BERT预训练模型和目标实体信息的模型。

    1. 文章主要贡献

    1. 提出将 BERT 用在了关系抽取任务, 探索了实体和实体位置在预训练模型中的结合方式。

    2. 可以通过在实体前后加标识符得方式表明实体位置, 代替传统位置向量的做法,论文也证实了这种方法得有效性。

    2. 论文模型详解

    在这里插入图片描述

    2.1 数据预处理

    1)针对输入进来的句子,需要在句首增加[cls]符号
    2)在第一个实体前后增加$符号
    3)在第二个实体前后增加#符号

    e.g. “The kitchen is the last renovated part of the house.“这句话输入BERT模型前应改为”[cls]The $kitchen$ is the last renovated part of the #house#.”

    2.2 BERT模型处理

    和经典的BERT模型一致,输入序列处理后得到的对应的序列输出向量。

    2.3 输出处理

    对于BERT模型处理输出的向量,在之后输入到全连接层中:

    1)[cls] 位置的输出可以作为句子的向量表示, 记作 H0H_0. 它经过 tanh 激活和线性变换后得到。
    H0=W0tanh(H0)+b0H_0' = W_0*tanh(H_0) + b_0

    2)两个实体向量的处理方法:
    假设BERT 输出的 实体1、2的开始和终止向量分别为Hi,Hj,Hk,HmH_i,H_j,H_k,H_m,则实体1、2的向量表示为:
    e1=1ji+1t=ijHt e_1 = \frac{1}{j-i+1}\sum_{t=i}^{j}H_t

    e2=1mk+1t=kmHt e_2 = \frac{1}{m-k+1}\sum_{t=k}^{m}H_t

    H1=W1e1+b1H_1' = W_1e_1 + b_1

    H2=W2e2+b2H_2' = W_2e_2 + b_2

    3)最后将H0,H1,H2H_0',H_1',H_2'三个组合起来,输入线性层做softmax:
    h=W3[concat(H0,H1,H2)]+b3h'' = W_3[concat(H_0',H_1',H_2')] + b_3

    p=softmax(h)p = softmax(h'')

    3. 效果分析

    在这里插入图片描述

    论文在 SemEval-2010 Task 8 dataset 上做了实验, 实验证明 R-BERT 比其他的模型如CR-CNN, ATTENTION- CNN 等效果都要好。

    除此之外,作者的还做了三个消融实验,结论表明:仅使用[CLS]而不使用实体的词向量会使模型得 F1 从 89.25% 降至 87.99%;不加上特殊标记 ‘$’ 和 ‘#会使模型的F1从89.25%降低至87.98%;以及既不加特殊标记也不使用[CLS]会使模型的F1从89.25%降低至81.09%。说明给实体前后增加标识符确实可以帮助模型提供实体信息 ,想办法主动明确实体信息对模型是有帮助的。

    4.个人应用启发

    这种方法简单而且功能强大,能够很好的应用到知识图谱关系抽取任务中。计划尝试研究这种方法在自动化知识图谱构建的应用。

    展开全文
  • 提出了一种针对NMT模型鲁棒性强壮思路 攻击文本生成算法AdvGen 多模型连带训练 攻击样本生成 扰动encoder输入 ...现在需要定义一个Q,给定句子X和第i个位置的前提下,能够计算该位置上,和原单词xi所有Vx

    提出了一种针对NMT的模型鲁棒性强壮思路
    攻击文本生成算法AdvGen
    多模型连带训练

    攻击样本生成

    扰动encoder输入

    在这里插入图片描述
    对于输入的第i个token —— xi,xi’是从Vocab中找到的,使得余弦相似度最大的token,余弦相似度计算的两个输入分别是,xi的gradient loss和新旧token之间的vector距离。


    全部Vocab搜索计算消耗过大,采用贪婪思想,运用动态vocab减小搜索范围
    在这里插入图片描述
    现在需要定义一个Q,在给定句子X和第i个位置的前提下,能够计算该位置上,和原单词xi的所有Vx中的词的似然度
    在这里插入图片描述

    从输出中找前N个词作为Xi的动态词表。也即和xi最相似的前N个词,N通常很小
    在这里插入图片描述
    利用训练好的双向语言模型,针对于第i个单词,预测此处Vx中各个词的概率,以此替代函数Q


    AdvGen Function:

    在这里插入图片描述
    给定输入的一句话,按照Dpos的概率分布对输入s中的每个此随机采样。未被采样的单词保留;被采样的单词通过top_n(Q)(双向语言模型)生成动态的Vsi,然后计算原词si的gradient记为gi,最后利用公式计算使得余弦相似度最大的,Vsi中的替代词replace

    扰动输入

    在这里插入图片描述
    和输入的扰动同样的计算,但是对应参数有所改动:

    • Loss定义
    • Q(Vxi计算):
      在这里插入图片描述
      平衡victim model和generate model对输入扰动的贡献
    • D(采样分布):
      在这里插入图片描述
      输入没有被修改的位置导致相近位置的输出被采样的概率为0.同时针对这些被修改的输入,计算该输出位置和所有这些输入的注意力分数,注意力分数越高被采样概率越大

    鲁棒性评估

    利用上述的抗击样本训练更好的鲁棒模型,定义模型鲁棒性能:
    在这里插入图片描述
    鲁棒Loss计算步骤:
    在这里插入图片描述
    对于每一个原始样本(x,y)利用两个generate LM缩小替代词搜索范围,按照公式计算X’,Z’。最后将攻击文本喂给decoder计算似然Loss评估鲁棒性能。

    合作训练

    在transformer上多消耗20%时间,于是将Loss定义为4倍,backward三个模型参数,同时训练三个合作的模型(两个generator + 一个victim),达到互利共赢,弥补速度缺陷。
    在这里插入图片描述

    self

    • 很好的一篇paper,白箱模型,在NMT的模型架构上效果显著。
    • 利用gradient loss+余弦相似度衡量距离
    • 内部扰动——input of both encoder and decoder
    • 利用LM减少替换词serach范围
    • 多个LM合作训练
      在这里插入图片描述
    展开全文
  • 本文翻译自:博文What will happen when we apply CapsNet with dynamic routing to NLP?  本文要讲是研究人员...​ 这一层是标准卷积层,通过多个不同卷积核在句子的不同位置提取N-gram特征。 主胶囊层(Pri...
  • LCQMC任务是口语化描述数据集上做文本相似性预测。 We will use LCQMC dataset for fine-tuning, it is oral language corpus, it is used to train and predict semantic similarity of a pair of sentences....
  • ([nearby_words], [nearby_words_score]),nearby_words是 WORD 近义词们,也以 list 方式存储,并且按照距离长度由近及远排列,nearby_words_score是nearby_words对应位置的距离分数,分数(0-1)...
  • 词粒度:切词后不词典中的词是疑似错词的概率大。 错误纠正 通过错误检测定位所有疑似错误后,取所有疑似错字的音似、形似候选词, 使用候选词替换,基于语言模型得到类似翻译模型的候选排序结果,得到最优纠正...
  • 英语“就近原则”和“就远原则”

    千次阅读 2019-09-03 06:37:18
    什么是“就近原则”?什么是“就远原则”?是根据单词位置的“近”或“远”来判断吗?...这个句子中空格处应该填入 have 还是 has 呢?前面一长串结构——what he does or what he says 究竟是单数还是...
  • ([nearby_words], [nearby_words_score]),nearby_words是 WORD 近义词们,也以 list 方式存储,并且按照距离长度由近及远排列,nearby_words_score是nearby_words对应位置的距离分数,分数(0-1)...
  • 输入嵌入是标记嵌入(词嵌入)、句子嵌入和位置嵌入总和。 摘要 我们提出了一种新称为 BERT 语言表示模型,BERT 代表来自 Transformer 双向编码器表示(Bidirectional Encoder Representations from ...
  • 如果你決定向我們求助,當然你也不希望被視為失敗者,更不願成為失敗者中的一員。能立刻得到快速並有效答案的最好方法,就是像贏家那樣提問──聰明、自信、有解決問題的思路,只是偶爾特定的問題上需要獲得一點幫...
  • # 相当于input中的每个id对应的embedding中的向量转换 src_emb = tf.nn.embedding_lookup(self.src_embedding, src_input) trg_emb = tf.nn.embedding_lookup(self.trg_embedding, trg_input) # 词向量上...
  • 找到一句句子中的人名,地名,机构名等命名实体。 实体别名自动识别(更新!) 从大量文本中自动识别出实体及其可能别名,直接用于实体链接。例子见这里 依存句法分析 分析语句中各个词语(包括链接到的实体...
  • 速度和精度均衡的目标检测网络,相比于原作者 darknet 中的 YOLO v3 实现,PaddlePaddle 实现参考了论文 Bag of Tricks for Image Classification with Convolutional Neural Networks 增加了 mixup,label_smooth ...
  • 将分词结果作为输入参数,调用PartOfSpeechTagging类process方法,词性保存Word类partOfSpeech字段 如下所示: List<Word> words = WordSegmenter.segWithStopWords("我爱中国"); System.out.println...
  • 英语考试资料

    2013-08-27 17:05:06
    校园网大学英语教学中的应用 四级辅导、六级辅导、考前强化训练等资料。 硕士英语 包括部分考研辅导文章、考研大... # 相似词语辨析 # 活用英语动词 # 常用短语词典 # 常用同义词辨析 # 900道练习题 # 语法... ...
  • 全模式,把句子中所有可以成词词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,精确模式基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 paddle模式,利用PaddlePaddle深度学习...
  • 2)全模式,把句子中所有可以成詞詞語都掃描出來,但是不能解決歧義。(需要充足字典) 搜尋引擎模式,精確模式基礎上,對長詞再次切分,提高召回率,適合用於搜尋引擎分詞。 支持繁體斷詞 支持自...

空空如也

空空如也

1
收藏数 20
精华内容 8
关键字:

with在句子中的位置