精华内容
下载资源
问答
  • 摘要:近年来,在大量双语语料库中,神经机器翻译(NMT)取得了巨大成功。 但是,对于资源匮乏语言而言,它效果要差得多。 为了缓解这一问题,我们提出了两种可以提高低资源NMT系统性能方法。 第一种方法...
  • 机器翻译的发展始于冷战期间,美国获得了大批前苏联的资料,但苦于翻译员不足,只好寻求机器帮助。1954年,IBM展示了一个基于6项语法规则和250字词汇表的计算机翻译系统,可将60个简单的俄语断句直译为英语,政府...

    https://www.toutiao.com/a6690072938491675147/

     

    机器翻译的发展始于冷战期间,美国获得了大批前苏联的资料,但苦于翻译员不足,只好寻求机器帮助。1954年,IBM展示了一个基于6项语法规则和250字词汇表的计算机翻译系统,可将60个简单的俄语断句直译为英语,政府非常激动,开始拨款大力支持机器翻译,有乐观派科学家宣称:“三年之后机器翻译一定非常成熟。”

    众所周知,这种思路很快被证明是错误的。人类无法驯服自己亲手创造的语言,语言仿佛古灵精怪的小姑娘,变化极其灵活,哪怕同一单词,在不同地域,文化,语境甚至情绪里的意义也迥然不同。IBM 的单词配语法无疑过于鲁莽,直至上世纪90年代,IBM都还在投入大量资金试图挑战机翻,无奈收效甚微。

    而在不少专业人士看来,经过多年发展,现如今,机器可以较为准确地理解每一个句子的意思,但若想真正做到流畅准确的翻译,还必须解决两个问题:调序和消歧。不同语言有不同语序(譬如在英语和德语里形容词放在名词前面,但在法语里通常相反),机器需要做到根据不同语言的表达习惯调整语序。另外,单个词汇,尤其动词常有多个语义,譬如汉语的“做”,你得让机器知道,做作业和做内啥是不一样的。

    尽管很多人对机器翻译的前景看好,一度认为机器翻译可直接取代人工翻译,然而真正应对人类语言的灵活性还需要很长的路要走,人工翻译的需求仍然不可忽视。与专业翻译相比,机器翻译还有待完善。

    机器翻译难敌人类灵活多变的语言

    展开全文
  • 机器翻译小结

    千次阅读 2018-11-06 10:48:53
    传统的机器翻译主要是基于统计的机器翻译,一般能够在精确度上做的比较好,但是在译文流畅度上有很大的不足,往往是只是翻译出对应单词的意思而缺少句子的整体信息。近几年,出现了基于神经网络的机器翻译,在译文...

    机器翻译小结

           机器翻译主要是通过计算机将一种语言翻译到其他语言,也就是最基本的序列到序列的问题。传统的机器翻译主要是基于统计的机器翻译,一般能够在精确度上做的比较好,但是在译文流畅度上有很大的不足,往往是只是翻译出对应单词的意思而缺少句子的整体信息。近几年,出现了基于神经网络的机器翻译,在译文流畅度和精确度上均有较好的表现。目前,主流的神经网络翻译架构有 CNN(facebook), RNN,LSTM , GRU,transformer等,在翻译结果上也有不同的表现,之前也有各自优点。RNN到LSTM到GRU 是不断变化进而 弥补之前缺陷,2017 年初左右这三种是很多翻译模型的主流架构。紧接着,出现了CNN和transformer ,CNN结构的主要是通过不断卷积,并且加入注意力机制,进而取得不错的翻译表现。而transformer 则是完全基于注意力机制,在翻译表现上,均能达到最好的效果,在经过优化之后,基于transformer的翻译模型最终碾压其他模型。这也使得较多公司选择使用transformer,并不断进行优化创新。在之前的文章中已经有了GNMT相关训练总结http://doc.actneed.com/?p=267,这里就对transformer在基本原理和使用方面做一个总结。(之后的transformer 表示基于transfomer的模型)

           首先,虽然transformer是完全基于注意力机制的,但是仍然离不开基本的编码-解码器结构,这一点是和GNMT相同的。不同的是GNMT是经过变种的RNN结合注意力机制实现的,而transformer完全是基于注意力机制实现的。这里就对transformer基本结构做一个简单的描述:

    首先是最基本的结构图:

           由图可以看出,transformer是由编码器和解码器组成,不同的是 编码器和解码器内部完全是多层的注意力机制层,这里的注意力机制也可以看做是一个变种,准确来说是自注意力机制,也就是说qkv 均来自自身,对输入本身做注意力,然后输入的信息经过编码器到达解码器,逐渐对于每一个位置的词语进行生成,最终得到完整的句子。

           其中,transformer中 同样有需要进行训练的输入输出嵌套层,这在GNMT中也有所体现。嵌套的目的是为了将较长的输入向量映射到 映射空间,进而减少训练过程中产生过多参数,以适应当前硬件的处理能力。同时transformer中有位置编码层,这是目前transformer中特有的。由于此结构模型是完全基于注意力机制的,在训练过程中单词之间的相对位置信息不能够很好的被模型所捕捉到,所以引入了 位置编码层,以记录不同单词见的相对位置信息,在google发表的论文中有不同的位置编码方式,可供选择。在自注意力机制之前也就是主要也就是这两部分,紧接着是重要的多头注意力机制了,简单来说就是设置不同的qkv以获得所谓不同类型的注意力模型,再次还有多头的概念,由于模型在初始过程中的一些权重完全是随机初始化的,为了提高精度,使用多个自注意力机制,也就是这里的多头,然后将这些进行连接通过训练的新的权重矩阵层获得和单个自注意力的同样的输出。进行完多头注意力机制层,接着就是残差层,和标准化层。然后经过前馈神经网络和另一个残差层。这样就是一个完整的编码器的基本单元了,在transformer中,这样的 单元根据参数的设置,可以叠加多层,以获得更好效果。解码器与编码器类似,不同的就是将编码器的输出作为解码器中注意力的输出,结合已经产生的输出进而逐渐产生出对应位置结果。

    以上就是对transformer模型的简单介绍,接下来是关于训练的一些步骤。

           首先是获取基本的训练代码,transformer模型可以自己通过tensorflow或是Keras进行构建,也可以直接使用开源代码。目前较为成熟的开源项目tensor2tensor 中包含transofmer 模型的实现,并且在模型修改和问题的定义方面也都比较方便,因此选择其作为训练的主要代码。

    基本环境的配置主要有:

    1. 安装对应的环境,tensorflow(gpu),tensor2tensor
    2. 编写自定义问题代码 (根据官网文档)
    3. 编写自定义参数代码。

    代码链接:https://blog.csdn.net/hpulfc/article/details/82625217

    数据预处理由于tensor2tensor 的内置了一些训练集,会记进行自动下载(可在代码中屏蔽),所以这里是直接使用自己处理好的数据进行训练,处理过程在之前的训练中有所提及这里就不做详细描述,不同的是对于中文的处理是不进行分字处理,而是进行分词处理,然后使用tensor2tensor 内部的子词处理工具进行处理获取对应的子词单词表,然后生成对应的样本文件(TFRecord),等待后续的训练。

    训练方面:主要是通过提供的命令,选择问题对应的训练参数和模型进行训练。需要注意的是要根据硬件条件调整训练的batch_size 大小,一般来说,GPU数量越多,batch_size 越大,获得的模型质量越好。对于同的语言,要根据实际情况进行参数调整,主要有warm_up_steps 和 learning_rate 。如果是硬件条件限制,可以选择不同的优化器进行结果调整。例如:gpu过少,但是想要达到过GPU效果,可以采用多步调优优化器。

    结果评测:tensor2tensor 在训练过程中会有bleu的测试,这个值较大,不能和其他模型进行比较。理想的是它提供了测试bleu的命令t2t-bleu 可以测试出标准的bleu。在评测的时候可以拿newstest各年的评测语料进行评测,然后与网上的数据进行对比,以检验模型的优劣。同时在内容上,可以预参考文件进行对比,查找具体原因。

    结果调优:基本的transformer模型虽然能基本达到其他模型的最好效果,但是还有很多方式进行整,以达到最优效果。目前主流的就是有通过增加数据集大小,不断的扩充语料。主要方式是通过开放的数据集和网上同开文章进行提取获取语料,同时可以通过back_translation 的方式进行扩充语料(这部分需要进一步探索)。数据清洗,为了获取优质的翻译语料,需要将原始语料中的一些东西去除,一般的做法主要有,清除句子中过长句子,标点统一转化为半角字符,转义字符进行转化,统一大小写,通过统计获取句子中的原句和目标句子的长度比值的阈值,以去除问题数据等。模型集成,通过训练出不同的模型,然后将同一源句子输入到各个模型对结果赋予不同权重,进行重新打分,进而选择最合适模型。最后对翻译进行微调,以获取较好的结果。

     

    总的来说,一个人的力量很有限,期待和更多相似的人共同合作!

    加油~!

    展开全文
  • 为解决基于短语统计机器翻译存在的调序能力不足的问题,尝试利用句法分析器对基于短语统计机器翻译的输入汉语句子进行句法分析,然后利用转换器进行调序操作,并对部分类型短语进行预先翻译,然后再利用基于短语统计...
  • 促进在资源不足的情况下以及针对少数族裔和资源匮乏语言的机器翻译工作 数据集和基准 -Facebook低资源MT基准 (尤其是子集, , 和大小语言对 -COVID-19翻译计划 项目和项目构想 在地图上显示可用模型...
  • 所以Java有个好就是库用起来比cpp要爽,但是不足就是,性能上还是存在差异,尤其是在与底层相关部分。代码import java.util.LinkedList; import java.util.List; import java.util.Scanner;public c

    题目链接

    题意理解

    这题不难,就是直接写。如果不想用大的数据结构,那么可以使用数组来暴力一发。因为数据量非常小,可以很快跑完。所以Java有个好就是库用起来比cpp要爽,但是不足就是,性能上还是存在差异的,尤其是在与底层相关的部分。

    代码

    import java.util.LinkedList;
    import java.util.List;
    import java.util.Scanner;
    
    public class Main {
        public static void main(String[] args) {
            int M, N;
            Scanner scanner = new Scanner(System.in);
            M = scanner.nextInt();
            N = scanner.nextInt();
            int x;
            List<Integer> wordNos = new LinkedList<>();
            int cnt = 0;
            for(int i = 0; i < N; i++) {
                x = scanner.nextInt();
                if(!wordNos.contains(x)) {
                    if(wordNos.size() >= M) {
                        wordNos.remove(0);
                        wordNos.add(x);
                        cnt++;
                    } else {
                        wordNos.add(x);
                        cnt++;
                    }
                }
            }
            System.out.println(cnt);
            scanner.close();
        }
    }

    欢迎加入“不会算法一群菜鸟”,群号是⑥⑥①⑨②2025,这是我设置的一道很低的门槛用来阻止广告的。入群的验证暗号是:我爱编译原理

    展开全文
  • 针对神经机器翻译翻译过度和翻译不足的问题,Tu et al. (2017) 论文《Neural Machine Translation with Reconstruction》提出了一种“编码器-解码器-重构器框架”,其使用了回译来提升翻译准确度。日本首都大学...

    针对神经机器翻译翻译过度和翻译不足的问题,Tu et al. (2017) 的论文《Neural Machine Translation with Reconstruction》提出了一种“编码器-解码器-重构器框架”,其使用了回译来提升翻译准确度。日本首都大学东京的研究者在英语-日语翻译任务上实现了该框架。机器之心技术分析师对该实现的论文进行了解读和梳理。

    论文链接:https://arxiv.org/pdf/1706.08198.pdf

    论文作者:Yukio Matsumura, Takayu kiSato, Mamoru Komachi

    引言

    神经机器翻译(NMT)近段时间发展迅猛,已经在传统的统计机器翻译基础上实现了很大的提升,并且已经在很多语言内的翻译任务上实现了当前最佳表现。

    但是,NMT 翻译过度和翻译不足的问题都存在,也就是说,有时候它可能会重复翻译某些词,有时候它可能会遗漏某些词。这是因为 NMT 模型通常可被看作是黑箱,而我们并不完全清楚它们背后的机制,即它们将源句转换成目标句的方式。

    针对这一问题,Tu et al. (2017) 为 NMT 提出了一种“编码器-解码器-重构器框架”,其使用了回译(back translation)来提升翻译准确度。这篇论文是该框架在英语-日语翻译任务上的实现。

    此外,这篇论文还指出,除非顺译(forward translation)模型的训练方式类似传统的基于注意的 NMT(也被称为预训练),否则该框架不能实现让人满意的表现。

    传统的基于注意的 NMT 模型

    下面展示了 Bahdanau et al. (2015) 提出的传统的基于注意的 NMT 模型。

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    图 1:基于注意的 NMT

    其中编码器将源句转换成固定长度的向量 C,并将其作为语境向量(context vector)。在每个时间步骤 t 都使用一个双向 RNN,那么该编码器的隐藏状态 h_t 就可表示为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中前向状态和反向状态可分别按以下方式计算:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    r 和 r’ 都是非线性函数。那么语境向量 C 就变成:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中 q 也是一个非线性函数。

    在经典的编码器-解码器模型中,编码器计算得到的语境向量 C 会被解码器直接“解码”成目标句。但因为解码器必须处理整个向量,所以之前的信息可能会被之后处理的信息覆盖。因此,语境向量越长,模型就越有可能丢失重要信息。这就是引入基于注意的机制的原因,这能让模型在每个步骤关注语境向量的特定部分以确保信息充分足够。

    在每个时间步骤 i,输出词的条件概率可以这样计算:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中 s_i 是解码器的隐藏状态,计算方式为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    根据这一等式,我们可以看到时间步骤 i 的隐藏状态 s_i 是使用语境向量 c_i 以及前一个时间步骤 i-1 的隐藏状态和目标词计算的。

    不同于前文提及的较长的长度固定的向量 C,语境向量 c_i 是编码器的每个隐藏状态 h_j 的加权和,计算方式为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中权重矩阵 e_ij 是由一个“对齐模型”生成的,该模型的作用是将位置 j 附近的输入与位置 i 处的输出对齐;而 α 可被理解成是一个“注意分配”向量。

    最后,目标函数定义为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中 N 是数据的数量,θ 是一个模型参数。

    编码器-解码器-重构器框架

    Tu et al. (2017) 为 NMT 提出的编码器-解码器-重构器框架在原来的 NMT 模型上增加了一个新的“重构器”结构。其目的是将解码器架构的隐藏状态翻译回源句,以进行比较并提升翻译准确度。下面描述了这种新结构:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    图 2:编码器-解码器-重构器

    在每个时间步骤 i,输出的“源词”的条件概率的计算方式为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    隐藏状态 s' 的计算方式与之前的解码过程类似:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    注意这里的 c’ 被称为“逆语境向量”,计算方式为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    其中 s 只是解码器的每个隐藏状态(在顺译时的)。

    类似地,可以进一步计算 α’:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    目标函数定义为:

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    注意这个优化函数包含两个部分,即顺译部分和回译部分。超参数 λ 指定了顺译和回译之间的权重。

    根据这篇论文,顺译部分衡量的是翻译流畅度,而回译部分衡量的是翻译充分性。以这种方式,这种新结构可以增强整体的翻译质量。

    实验

    这篇论文使用了 2 个英语-日语平行语料库:Asian Scientific Paper Excerpt Corpus(ASPEC)(Nakazawa etal.,2016)和 NTCIR PatentMT Parallel Corpus (Goto et al., 2013)。

    实验中所用的 RNN 模型有 512 个隐藏单元、512 个嵌入单元、30000 的词汇量和 64 的批大小。训练平台是 GeForce GTX TITAN X GPU。

    基准 NMT 模型是普通的基于注意的 NMT。

    注意在这些实验中超参数 λ 设置为 1。

    下面给出了一些英语-日语翻译任务的示例。注意“联合训练(jointly-training)”是指没有预训练的编码器-解码器-重构器。

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    表1:英语-日语翻译的输出示例

    结果

    表 2 和 3 展示了 BLEU 分数表示的翻译准确度、通过 bootstrap 重采样得到的显著性检验的 p 值(Koehn, 2004)以及在收敛之前的训练时间。

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    表 2:英语-日语翻译结果

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    表 3:日语-英语翻译结果

    这个结果表明新的编码器-解码器-重构器框架所需的训练时间长于基准 NMT,但在英语-日语翻译中,其在 ASPEC 上的翻译准确度显著提升了 1.01 分,在 NTCIR 上提升了 1.37 分。但其在日语-英语翻译任务上却没有实现这样的提升。此外,联合训练得到的模型的表现甚至比基准模型还差一些。

    此外,这篇论文还检查了这种新模型是否能更好地解决上面提到的翻译过度和翻译不足的问题。比如,图 3 表明基准模型无法输出“乱流と粘性の数値的粘性の関係を基に”,而新提出的模型能成功翻译它。图 4 表明基准模型重复翻译了“新生児”和“30歳以上の”,新提出的模型则表现更好。

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    图 3:示例 1 中的注意层:对翻译不足问题的改进;其中左为基准 NMT,右为编码器-解码器-重构器

    用编码器-解码器-重构器框架实现英语-日语的神经机器翻译

    图 4:示例 2 中的注意层:对翻译过度问题的改进;其中左为基准 NMT,右为编码器-解码器-重构器

    结论

    这篇论文在英语-日语翻译任务上分析了新提出的编码器-解码器-重构器框架。结果表明,这种编码器-解码器-重构器能在英语-日语翻译任务上实现显著的 BLEU 分数提升,并且能缓解翻译中重复和遗漏词的问题。此外,通过将其与顺译和回译联合训练的模型进行比较,这篇论文还评估了预训练的重要性。

    评阅者点评

    回译一直都是翻译研究的一种有用方法,也能让人类译者检查他们是否翻译准确。在机器翻译任务中使用这种传统翻译方法是一个相当了不起的思路。

    未来,语言学知识和自然语言处理会结合得更加紧密,这可能会成为一种新思路,有助于更好地提升语言处理任务的表现,比如机器翻译,尤其是对于日语这样具有很多“语法模板”(即日语的“文法”)的语言。

    参考文献

    1. Dzmitry Bahdanau,Kyunghyun Cho,and Yoshua Bengio. 2015. Neural Machine Translation by Jointly Learning to Align and Translate. Proceedings of the 3rd International Conference on Learning Representations (ICLR), pages 1–15.
    2. Zhaopeng Tu, Yang Liu, Lifeng Shang, Xiaohua Liu, and Hang Li. 2017. Neural Machine Translation with Reconstruction. Proceedings of the ThirtyFirst AAAI Conference on Artificial Intelligence (AAAI), pages 3097–3103.
    3. Philipp Koehn. 2004. Statistical Significance Tests for MachineTranslationEvaluation. Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 388–395.
    展开全文
  • GPU、FPGA 和 ASIC,目前人工智能芯片市场主要由非定制化芯 片 GPU 和 FPGA 主导,但非定制化芯片在计算性能、功耗、成本等方面存在明显不足,市 场需求必将推动人工智能芯片从通用向专用发展,由通用 ...
  • 这个模型突破了原有神经机器翻译需要有足够大平行语料库限制,创造了一种可以使用两个单语语料库进行训练翻译模型,克服了平行语料库不足的难题。同时翻译过程应用到了识别语义思想,可以被广
  • 网格计算给分布式计算提供了一种全新方法,不仅在跨地区而且在跨组织,机器结构和软件限制,给连接到网格每个用户提供更多资源,计算机之间协作和信息访问。分布式资源,像计算周期,存储和信息
  • 本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。 基于图的机器算法 (二) 编者按:基于图的机器算法学习是一个强大工具。结合运用模块特性,能够在集合检测中发挥更大...然而它有个不足,你图需...
  • 《MACHINE LEARNING YEARNING》是Andrew NG最近出本新书...翻译任何不足之处,欢迎大家不吝指出。Table of Contents (draft)目录 1. Why Machine Learning Strategy 为什么需要机器学习策略 2. How to use this
  • 2021美赛各题翻译

    千次阅读 2021-02-05 10:14:04
    备注:纯机器翻译,肯定会有不足,英文原题见评论 A题:真菌 碳循环描述了地球整个地球化学循环中碳交换过程,是地球上生命重要组成部分。碳循 环一部分包括化合物分解,这使碳得以更新并以其他形式使用。这...
  • Robolectric 通过创建一个包含真实Android 框架代码运行时环境来进行工作。 这意味着,当你测试或被测试代码调用到Android框架时,你会获得更真实体验,因为这...3.不足的测试Api - Android几乎没有适合测试ap
  • 神经机器翻译模型参数训练依赖于平行语料,但是语料匮乏,那如何提高语料效率? 如何提高解码效率? 数据效率提升 使用第三方语言作为桥接 神经机器翻译模型在低资源情况下,比传统统计翻译模型效率...
  • 2、产生背景 解决公网IP不足的问题。 官方规定,将IP地址资源进行分类,分为ABCDE,常用ABC三类,在每类中划分出了一些私有IP供各单位使用。 私有地址可以在各单位重复使用,原因是在公网内,通过ACL对私有地址...
  • 有关翻译中存在的不足之处,恳请各位大佬批评指正,我会随时修改! 为了追求翻译进度,嵌套在正文中的数学表达式没有做特殊处理(主要是上标和下标),但是不影响阅读理解,后续会慢慢改进。 GitHub的Markdown布局...
  • PostScript 打印机打印"内存不足"错误消息 文章编号: 248397 - 查看本文应用于产品 查看机器翻译免责声明 ...
  • 二 标准曝光不足,过曝前言标准曝光标准曝光...作为机器视觉的职场新人,我决定通过写日志或翻译的方式来学习,学习源为松下的官网,日本在这方面很强,希望国产相机也能加油迎难而上,让我们用上国产好货! 学习源: ...
  • 我认为实现人工智能难度无异于建造火箭。需要有一个强大引擎,还有大量燃料。如果空有强大引擎但缺乏燃料,火箭肯定是无法上天。...需要如此多数据,原因在于机器在学习过程中会在模型中遇到
  • 100-days-ML----100天搞定机器学习 (1)

    千次阅读 2018-08-10 12:21:13
    这是github一个开源项目,作者是Avik Jain,内容是从机器学习...写博客仅仅是为了记录自己学习历程,翻译不到位话还请多多见谅,不足之处请指出,不喜勿喷。 这里附上原项目地址:https://github.com/Avik-Jain...
  • 本篇文章是原文的翻译过来,自己在学习和...因时间(文字纯手打加配图)紧促和翻译水平有限,文章有不足之处请大家指正。 介绍 你可以通过两种方式学习和实践一个概念: 选项1:您可以了解一个特定主题整个理...
  • 比如人脸识别、机器翻译等应用越来越广泛,技术也在像纵深方向发展,比如像自动驾驶从L2向L5不断迭代。 但是,一个硬币往往是有两面,随着AI软件复杂性提升,可靠性问题、安全问题重要性也成为躲不过关口。 ...
  • Structure-Invariant Testing for Machine Translation 机器翻译的结构不变测试论文解读 论文大纲如下: 根据论文里机器翻译的背景的例子,我总结了以下翻译场景: 目前机器翻译软件存在以下不足: ...
  • 提出了一种改进汉语句子相似度衡量方法,用于基于实例汉英机器翻译。该方法同时考虑了相同词串数目及长度和对应权值信息,克服了传统方法显著不足,在理论上更有合理性。在小数据集上实验也表明该方法是...
  • 位置编码在注意力机制中作用

    千次阅读 2021-06-05 09:35:43
    阅读本文的前置知识 神经网络知识。 有一种叫做注意机制的... 该论文巧妙地利用了 D.Bahdanau 等人通过联合学习对齐和翻译的神经机器翻译注意机制的使用。 并且提供一些示例明确且详尽地解释了注意力机制的数学和应
  • 命名实体翻译等效项提取在机器翻译(MT)和跨语言信息检索(CLIR)中起着至关重要作用。 传统方法通常基于大规模并行或可比语料库。 但是,这些研究适用性受到限制,主要是因为缺乏所需规模平行语料库,特别是...

空空如也

空空如也

1 2 3 4 5 6
收藏数 118
精华内容 47
关键字:

机器翻译的不足