精华内容
下载资源
问答
  • 健之祭 剑指offer里面翻译
  • 快速翻译Xcode代码里面的单词.zip,Xcode代码单词快速翻译
  • 安装KALI里面翻译工具

    千次阅读 2019-08-11 09:28:00
    kali下英文软件很多,想找一个方便的翻译软件,Linux版的有道词典kali下无法正常使用,所以我选择使用星际译王。 1.安装星际译王 apt-get install qstardict #用户需要安装qstardict软件包和词库包stardict-...

    作为编程行当的人员,英语是躲不掉的,很多资料英文更加有效,字典就显得尤为重要,我希望字典不但能查到中文意思,还能发生,那就跟我来吧:
    kali下英文软件很多,想找一个方便的翻译软件,Linux版的有道词典在kali下无法正常使用,所以我选择使用星际译王。
    1.安装星际译王

    apt-get install qstardict
    #用户需要安装qstardict软件包和词库包stardict-czech、stardict-english、stardict-german-czech、stardict-xmlittre。将其他翻译工具的词库文件(.dict.dz,.dix,.ifo.syn)复制到/usr/share/stardict/dic目录下,就可以用了

    让你的qstardict读单词

    一、安装字典程序:
    pacman -S qstartdic sox
    二、添加字典文件:
    所有文件可以从百度网盘下载,具体如下:
    链接: http://pan.baidu.com/s/1kVfk8z9 密码: 2pnc
    下载后解压:有dic OtdRealPeopleTTS.tar.bz2 pronounce-word.sh WyabdcRealPeopleTTS.tar.bz2四个文件,实际需要3个,
    cp -R dic/ /usr/share/qstardict/ #将目录dic复制到/usr/share/qstardict/
    三、添加单词发声文件:
    tar -xvf WyabdcRealPeopleTTS.tar.bz2 -C /usr/share #将发声文件解压
    四、添加发声脚本文件
    cp pronounce-word.sh /usr/bin/
    五、设置qstardict程序
    在程序的设置–设置–字典–插件中设置中点击加号,增加目录/usr/share/qstardict/dic即可,
    在程序的全局设置中,使用如下命令发音中填写:sh pronounce-word.sh %s
    再次启动字典,输入单词face看看吧,如果不幸可能是文件权限问题,增加文件对普通用户的读取权限即可。

    展开全文
  • 我和同学的5篇翻译里面包括计算机,电子信息,自动化的毕业设计英文翻译~很经典的
  • 这是一个用VB做的单词翻译软件,里面含有3个窗(登陆界面、展示窗口和翻译界面!很好用的哦! 密码:hexuan 用户名:hexuan
  • 应该做一个软件,直接把视频里面的英语,转换成字幕,然后翻译 软件一开,你看英语视频时候自动翻译成双语字幕,写到txt里面 转载于:https://www.cnblogs.com/zhangbo2008/p/8448211.html...

    应该做一个软件,直接把视频里面的英语,转换成字幕,然后翻译

    软件一开,你看英语视频时候自动翻译成双语字幕,写到txt里面

    转载于:https://www.cnblogs.com/zhangbo2008/p/8448211.html

    展开全文
  • 本课程将详细讲解 Transformer 新型神经网络及其机器翻译中的应用,并从工业实践和评测竞赛的角度更全面的展现其实用价值。 本场 Chat 主要内容: 神经网络翻译架构; Transformer 新型网络结构解析; 基于 ...

    随着深度学习技术的发展,基于神经网络的机器翻译系统已成为业界的主流系统。本课程将详细讲解 Transformer 新型神经网络及其在机器翻译中的应用,并从工业实践和评测竞赛的角度更全面的展现其实用价值。

    本场 Chat 主要内容:

    1. 神经网络翻译架构;
    2. Transformer 新型网络结构解析;
    3. 基于 Transformer 的机器翻译系统;
    4. Transformer 在阿里翻译中的工业化实践。

    报名地址:

    https://edu.csdn.net/huiyiCourse/detail/822


    作者简介:于恒,现为阿里巴巴-翻译平台-翻译模型组负责人。

    中科院计算所博士,研究方向是机器翻译,在自然语言处理和人工智能领域顶级国际会议 ACL、EMNLP、COLING 等发表多篇论文。曾在三星中国研究院和搜狗负责机器翻译工作,参与上线搜狗翻译和搜狗海外搜索等产品。

    目前在阿里翻译平台组担任 Tech-leader,主持上线了阿里神经网络翻译系统,为阿里巴巴国际化战略提供丰富的语言支持。

    前言

    关注AI的同学最近应该会看到,机器翻译是一个比较活跃的领域,很多大公司都争先推出了自己的机器翻译服务,包括还有一些机器翻译的硬件已经在市场上投放,比如翻译笔。

    产业的兴旺离不开背后技术的巨大进步,从今天的课程当中,我会给大家介绍背后技术的神秘面纱,然后对 Transformer 这个神经网络做深入的解析。

    enter image description here

    神经网络机器翻翻译是目前比较主流的机器翻译方法,它是 “ Sequence to Sequence ” model,也就是端到端的翻译框架。

    如左图所示,我们输入一个待翻译的句子,通过神经网络编码器,去把这个句子的信息编码成中间状态,就是这个图中红色的部分,它用数值的隐层来表示。

    经过中间状态、经过神经网络解码器去生成对应的翻译,是编码、解码的过程。翻译的知识和参数都是由神经网络自动进行学习的,它省去了之前传统方法之前的人工干预模块,使整个翻译过程统一化,并且简洁。

    随着深度学习发展带来的红利,这个翻译模型的性能有显著提升。如右图所示,这是谷歌翻译当时 Release 的数据,传统的是基于短语的翻译系统,翻译的性能远低于基于神经网络的翻译,就是那根绿色的线。

    并且神经网络的翻译在某些语项上是接近人类的水平。我们还可以注意到,在 “ 英语到西语 ”、“ 英语到法语 ”,同样是拉丁语系的翻译上,神经网络的翻译和 human 的 gap 比较小,在 “ 英语到汉语 ” 这两者语言差异比较大的、翻译难度大的语种上 gap 比较大,所以神经网络仍然有比较大的进步空间。这是目前神经网络目前翻译的总体质量情况。

    enter image description here

    它背后的技术是怎样呢?

    从这个图可以大概看出来传统的基于 RNN 的 “ Sequece to Sequence ” model 是怎么运行的,这个例子是一个 “ 英文到中文 ” 的翻译,英文 “ Economic growth has slowed down in recent years ” 通过这个循环的 RNN 神经网络去逐词读入源端的句子,最终把它编码成红色那个点隐层的信息,根据这个隐层的信息输入到另外一个目标端的循环神经网络,然后逐词生成中文的翻译 “ 近几年经济发展变慢了。 ” 这里的是一个句子结束符的表示,生成的过程在句子末尾添加这样一个标志表示翻译过程结束了。

    传统的 RNN 神经网络结构是可以处理任意长度的输入,它非常适合于自然语言的建模,所以它在一段时间内占据了整个神经网络中的主流。随着学术的发展,我们也会看到 RNN 有些不足。

    它的缺点主要有两点:

    第一点,RNN 序列的特性导致其非常难以并行化,从上图可以看出,如果把 RNN 展开来是一个序列型的网络,比如我要得到 X4 的结果时,必须先计算出 X0 - X3 的结果,这样的串行关系使它的并行度非常低。举一个例子,谷歌的 GNMT 的神经网络系统,它是需要 96 块 GPU 卡训练一周的时间才能完成一个模型的训练。

    96 块 GPU 卡对于一个研究机构或者小公司来说是个巨大的开销,基本是负担不起的,并且还要训练一周的时间,所以 RNN 特性使整体模型训练速度非常慢、成本非常高。

    enter image description here

    另外在 RNN 训练中,RNN 的网络结构对于长距离和层级化的依赖关系难以建立,比如句法信息、指代信息的关系,由于它只是一个单一的序列 ,所以它很难对这些关系进行建模。举个例子,“ The dog didn’t cross street because it was too tired ”,当我们看到 “ tired ” 的时候知道这个 it 指dog 。

    如果把最后一个词换了,“ The dog didn’t cross street because it was too wide ”,这时候如果是人看了这句话就很容易发现 it 指的是street,因为 street because it was wide,不可能是 dog too wide。

    对于人来说很简单,但是机器要分清楚指代关系是非常难的。如果将这个句子翻译成法文或者德文的话,法文、德文对于 dog 和 street 翻译所用的格是不一样的。

    所以在 GNMT 或者传统的翻译处理中,这些 case 时基本是做不对的,如果做对了可能也是蒙的,这是 RNN 一个比较显著的局限性。

    enter image description here

    基于以上 RNN 的缺陷,我们肯定希望有更好的神经网络去代替它。

    我们期望是这样的:第一,它是可以高度并行化的网络。RNN 的特点导致我们要抛弃 RNN 的结构,实现速度成倍的提升。

    并且我们需要能够捕捉层次化的信息,就需要建立一个很深层的神经网络,而不是单层的一个序列的 LSTM 的网络。并且我们需要能够对指代信息丰富的上下文进行建模,这需要 Self-Attention、Multi-head Attention 这样的技术。

    左边这个演示的是 Transformer 整体的训练过程,在 Encoding 的部分简单可以看到,每个词是很并行化处理的过程。在 Encoding 之后 Decoding 是根据深层神经网络当中的输入不断逐词解码,最终生成翻译。

    这引出我们今天讲座的主题,将会分四个部分对 Transformer 进行解析:

    • 第一,对网络结构进行解析。
    • 第二,对在机器翻译中的应用进行介绍。
    • 第三,因为我是从阿里翻译过来的,所以我会从工业实践的角度对 Transformer 进行介绍。

    我们最近参加了 WMT2018 全球机器翻译评测,拿到了比较好的结果,最后,我从评测的结果对 Transformer 的表现进行分析。

    enter image description here

    一、对网络结构进行解析

    Transformer 这个网络命名,Transformer 在英文翻译过来有变形金刚的意思,我想当时作者也是希望借助强大的变形金刚赋予这个网络更强的力量。

    enter image description here

    如果我们用放大镜高维度解析这个网络,拆开之后它仍然是 “ Sequence to Sequence ” 框架进行的,它分 Encoder 和 Decoder 两部分。我们再进一步细化的话,这个图包含很多信息。

    首先,我们看到 Encoder 有 6 层,Decoder 也有 6 层,为什么要有多个层?从 Encoder 的角度,低层的 Encoder 是表层的词法信息,逐步向上进行抽象之后,在上层将表示抽象语义信息。

    Encoder 部分还在最上层连了几条线到每个 Encoder 的部分,这就是刚才谈到 Attention 的部分,Decoder 的网络中和 Encoder 也有信息传递和交互的。最后一个特点是 Decoder 和 Encoder 画的大小是一样的,因为它们层的维度大小是一样的。这个图表达了以上这些信息。

    enter image description here

    多层的神经网络结构能够对句子层级化信息进行建模,如果我们更精细的去看每一层的结构,就会发现这样的情况:Encode 分两个子网络部分,第一个是 Self-Attention,第二个部分是 Feed Forward,大家比较熟悉,就是传统的前馈神经网络,我们摒弃了传统的并行化比较低,而且比较简单且高度并行化的前馈神经网络。

    Self-Attention 是自注意力机制层,表征句子当中不同位置词之间的关系,是我们前面提到的 it 和 street 或 dog 之间的依赖关系。

    Decoder 层比 Encoder 层多一个子网络,就是 Encoder-Decoder Attention,它是源端到目标端的注意力机制,对源端词到目标端的助理机制,不是源端到目标端词的依赖关系,用到翻译里是说这个源端待翻译的词和源端生成翻译词之间的依赖关系。

    enter image description here

    我们如果进一步对 Encoder 部分进行细化,它长成这样。我们输入代翻译词是 “ Thinking Machines ”,先会去查找这两个词分别表示成词向量的形式,再经过 Self-Attention 层得到 Attention 的输出,再经过 Feed Forward 自动生成 Encoder1 的输出,Encoder1 的输出作为 Encoder2 的输入,这样以此类推,6 层一直拼到上面去。

    在整个 Encoder 网络中,Feed Forward 是大家比较熟悉的部分,但应该大多数观众的情况并不太了解 Attention,因为它是神经网络机器翻译中提出的概念,在其他的网络这种概念并不常见。

    enter image description here

    下面我们对 Attention 这个概念给大家进行进一步剖析,什么是 Attention?从语言学的角度,它是表示词与词之间的关联关系,像下图所示,这是一个 Self-Attention 的示意,它这个 it 会和其他位置的词发生关系,颜色越深的是说关系越紧密,从中图中看到它很正确的关联到了 animal 它实际指代的一个词。

    enter image description here

    从机器学习的角度,这个 Attention 是神经网络隐层之间一个相似度的表示,什么是 Self-Attention?就是表示句子内部词与词之间的关联关系,就像这里的 it 到 animal,可以用于指代消解等问题。什么是 “ Encoder-Decoder Attention ”?

    就是编码序列和解码中词与词的关联关系,以机器翻译为例,它是表征翻译中源端到目标端可能互译词之间的对应关系。这个也比较好理解,比如你在翻译一个词的时候,源端每个词的贡献度是不一样的,它表示这种不同的注意力的关系。

    传统的 Attention,就是 RNN、LSTM 网络中也是有 Attention 的,但是 Attention 的计算方式是相对简单的,蓝色是编码器的序列,红色是解码器的序列,当解码器序列当中的一个隐层是 Attention 的时候,它会这个层与 Encoder 每个层之间的相似度,然后通过这个相似度作为位置对 Encoder 每一层进行加权,生成 Ct,Ct 就是整个 Attention 的输入。这是一个比较简单的 Attention 计算,但是它的表现能力是非常有限的。

    enter image description here

    我们在 Transformer 中提出一种扩展性更高、并行度更高的 Attention 计算方式,它把 Attention 看作一个基于内容的查询的过程,content based query,它会设置 3 个 vector:Query Vector、Key Vector、Value Vector。

    并且每一个 Vector 都是通过它的 input embedding 和权重的矩阵相乘得到的。我们利用这个 Q、K、V 进行各种数值的计算,最终得到 Attention score。这个计算过程是相对复杂的。

    enter image description here

    我们用一个例子来给大家演示一下具体的 Attention 是怎么计算的。如果我们计算 “ Thinking ” 这个词,用 Self-Attention 的话,首先会用它的 Query Vector 乘以 K 的向量,如果计算和第二个位置的 attention 是乘以 T2 的矩阵得到一个 score,这个 score 再去和它维度的平根根进行相除,这个相除有数学上的含义,能够使它回传的梯度更加稳定,除完后得到一个数值进行 softmax,所有 Attention 都是正数并且相加之和等于 1,这是从数学正确上考虑,并且最终得到概率这个值是去定义每一个词在当前位置的表现力。

    Softmax 之后,我们会用 softmax 得到的乘以它 Value 的矩阵,这样实际得到 Attention 的值,最后会把不同位置得到 Attention 的 score 加到一起,形成当前位置 Attention 的 Vector,就是 Z1,加上逐词计算的话就得到所有位置的 Attention。

    enter image description here

    刚才说到的是一个基于向量之间的运算,但是根据提到 Transformer 系统是一个高度并行化的系统,所以我们有一个很好的并行策略,就是基于将 Vector 计算变成基于矩阵的运算,因为我们在 Encoder 时所有的词都是并行计算,我们把所有词的词响亮拼在一起形成矩阵,用这个矩阵和它的 Q、K、V 的权重矩阵进行相乘,方便得到 Q、K、V 矩阵,Q、K、V 矩阵用一个公式表示数值操作,就得到 Attention 的矩阵,这是一个高度并行化的操作,可以通过一步运算直接完成的,这个在 GPU 上很容易、速度很快。

    enter image description here

    这是 Attention 的一种计算方法,我们对计算方法进行了拓展,提出了 “ Multi-head Attention ” 的方式,就是 “ 多头 ” Attention,我们设置多个 Q、K、V 矩阵和它实际值的矩阵。它这样设计是有两种好处,第一种好处是它的可训练参数更多,能提升模型能力,去考虑到不同位置的 Attention,另一个好处是对于这个 Attention 赋予了多个子空间。

    这个从机器学习的角度来说,首先参数变多了,拟合数据的能力变强了。从语言学是这样的,不同的子空间可以表示不一样的关联关系,比如一个子空间是表示指代的 Attention,另一个子空间可以表示依存的 Attention,另一个子空间表示其他句法信息的 Attention,它能够综合表示各种各样的位置之间的关联关系,这样极大的提升了 Attention 的表现能力,这是传统的 RNN、LSTM 系统当中所不具备的,也是最终实验时会对性能有巨大影响的一个工作。

    enter image description here

    举个例子,比如我们有 8 个 “ Multi-head Attention ”,输入一个 “ X ” 会计算出 8 个权重 Attention 输出的矩阵。那这 8 个矩阵怎么用呢?我们还需要把 8 个矩阵拼起来,然后用一个降维矩阵对它进行矩阵操作,把它压缩到一个我们能够相对接受的大小,对于信息进行压缩,这样可以避免后面矩阵操作维度过大导致整个开销比较大。所以它最终会压缩到一个比较小的维度。

    enter image description here

    enter image description here

    以上就是 Transformer 当中 Attention 机制的计算,从 Big picture 来看,它分几个部分:第一个部分是我们找到输入的句子,第二个部分去生成它的词向量的表示,并把它拼在一起,拼成 matrices,这个 matrices 去和 Q、K、V 的权重矩阵进行数值运算,得到 Q、K、V 三个矩阵的数值,三个矩阵的数值通过之前的公式得到 Multi-head Attention 的值,Multi-head Attention 拼在一起,通过一个降维矩阵,最终压缩到我们觉得比较合适的一个维度,来作为 Attention 子网络的输出。

    enter image description here

    以上是 Attention 的主要内容,当然,Transformer 还有其他的网络,也可以给大家介绍一下。“ Positional Encoding ” 是对于这个序列中每一个位置进行建模。刚刚提到完全并行的矩阵操作时,大家可能会有一个疑问:这个不是一种指代模型吗?之间位置不考虑了,但不同位置在翻译中是很重要的关系,就是哪个词在哪个词前面,前后关系有非常大的意义。

    我们通过这个 “ Positional Encoding ” 去对位置进行建模。具体的时间、方法,我们对每一个词的 embedding 会加一个基于位置的 embedding,S1 会加一个 T1,这个 T1 是和它的位置相关,位置就是编码第 0 个位置、第1个位置,依次打下去。这个 T 是根据这个公式计算的,这个公式是数学上选择比较好的一个公式,并且它和实际的 Position 是相关的。

    举个例子,如图所示,这个三个词的句子,每个位置的 position Encoding 的数值大概是这样的,它通过这个数值加到原始的 embedding 上面,使这个 embedding 天然具有了它的位置的信息,在后面建模过程中我们会考虑每个词位置的信息。

    enter image description here

    enter image description here

    另外一个是直连层网络 “ Residual connection ”,了解的同学知道 “ Residual connection ” 是对于较为深层的神经网络有比较好的作用,比如网络层很深时,数值的传播随着 weight 不断的减弱,“ Residual connection ” 是从输入的部分,就是图中虚线的部分,实际连到它输出层的部分,把输入的信息原封不动 copy 到输出的部分,减少信息的损失。

    “ layer-normalization ” 这种归一化层是为了防止在某些层中由于某些位置过大或者过小导致数值过大或过小,对神经网络梯度回传时有训练的问题,保证训练的稳定性,这是神经网络设计当中两个比较常用的 case,基本在每个子网络后面都要加上 “ layer-normalization ”、加上 “ Residual connection ”,加上这两个部分能够使深层神经网络训练更加顺利。这是另一个主要的细节。

    enter image description here

    小结一下,刚才对神经网络做了比较详细的解释,它如下图所示,图里面画了两层的 Encoder 和 Decoder,曾底层的词的输入到 embedding 的输入,X1、X2,加上 “ Positional Encoding ” 的输入,输入到第一个 Encoder 当中,经过 self-Attention 层,直连的 “ Residual connection ” 和归一化层,得到的输出再去输入到前馈神经网络中,前馈神经网络出来之后再经过直连层和归一化层,这样就完成了一个 Encoder 部分,再以这个输入到第二个 Encoder 之后,它会把第二个 Encoder 的输出作为第一个 Decoder 的输入,也是依次进行上面的过程。

    这个图中有一个细节需要大家注意,目标端的 Attention 注意力机制是一个 masked 注意力机制,为什么?比如在机器翻译当中,在源端能够看到所有的词,但如果你目标端生成翻译时是自左上右,生成翻译时能够看到前面已经生成词的信息,看不到后面层的,这是目标端 Attention 和源端 Attention 比较大的区别,所以在目标端所有的 Attention 都是加 Masked 的,这个 Masked 相当于把后面不该看到的信息屏蔽掉,这是 Transformer network 的小结。

    二、基于 Transformer 的机器翻译系统

    enter image description here

    Transformer 的网络是怎么用到机器翻译里的?Encoder 端是源端的法语句子,目标端是英语的句子,随着时序的不断进行,每次生成一个词的翻译,最终它会生成一个 的符号,这个符号表示整个解码过程结束了。

    enter image description here

    它是怎么生成每一个词的翻译呢?因为我们知道 Decoder 最上层的输入也是一个隐层,是 2048 或者 1024 的隐层。那么这个隐层是怎么对应到输出的那个词呢?后面的网络是这样的。

    首先,我们对每种语言会有一个固定的词表,比如这个语言到底有多少个词,比如中文里有 2 万词、3 万词、5 万词。对网络隐层会先过一个线性的投射层,去把它投射到一个词表大小的向量维度,形成一个词表大小向量,我们在这个向量基础上做 softmax,把它转成概率。譬如是 3 万的词,去选取里面概率最大的那个词作为我们实际的输出,这里面第五位是最大的,它会输出一个 am,这样就达到了通过 Encoder 输出隐层来去实际生成一个词翻译的效果。

    enter image description here

    另外一个部分是神经网络优化目标,在神经网络训练的过程中是需要平行语料的,所谓平行语料是源端和目标端都需要有。我们训练的目标是使神经网络生成这个翻译的概率分布尽量去贴合实际参考答案的概率分布。

    右边这个图我们希望它生成的概率分布,对于那个句子在第一个 Position 的时候希望i的概率是最大的,第二个希望 am 是最大的,以此类推。但这是训练好的,一开始训练时是随机处理化的概率分布,经过几千万句子的不断训练,会得到这样一个比较好的分布。

    enter image description here

    它的训练优化目标是概率的交叉熵 cross entropy,以 cross entropy 作为梯度更新的优化目标。(上图)左边这个图优化目标的 loss 相当于它训练的轮数,因为是 entropy,所以是稳定下降的过程。

    相应的,翻译的评价目标 Bleu 值是匹配度加权的分数,Bleu 值越高越好,它随着训练过程的进行会有一个逐步向上升的过程。训练的优化目标就是这样的,通过交叉熵的优化来达到 Bleu,就能翻译效果优化的过程。

    我们看看 Transformer 的结果是什么样的,回到最开始的例子,用 Trans 网络对于句子的 Attention 进行了分析。得到了比较有意思的结果,(下图)左边这个句子,当最后一个词是 too tired 的时候,it 所对应到的注意力机制最多的部分是 animal,这是它对应到正确的部分,如果最后一个词是 wide 的时候它对到 street 是最多的。

    这样就非常有意思,Attention 其实确实能够建模到比较难的指代消解问题,这也是比较好的,超越之前 RNN 和 STLM 的,就是 Attention 表示能力更强。

    enter image description here

    (上图)右边这个表是列出谷歌公布的数据,基于 RNN 的 GNMT 和 Transformer 的比较,在 bleu 值上 Transformer 有比较明显的提升,并且它在训练的时间上面只需要 8 块 GPU 卡,训练 4.5 天就可以达到一个比较好的模型,而传统的基于 RNN 需要 90 块 GPU卡训练 6 天才,效果还不如 Transformer 的翻译系统。这相比原来的 RNN 有一个非常显著的提升,是目前工业界、学术界对于机器翻译来说最好的智能网络。

    enter image description here

    刚才对 Transformer 有了详尽的介绍,下面说一下 Transformer 在阿里翻译当中的表现。

    三、Transformer 在阿里翻译中的工业化实践

    刚刚提到工业化实践,最大的一个问题是大数据,传统的实验室环境是几十万、几百万的语料,但对阿里这样大规模电商场景的机器翻译是需要很多语料的,需要上亿平行语料的训练,但对这么多平行语料用单 GPU 卡训练非常慢,基本是训不出来的。

    第一个需要解决如何使用分布式训练,就是多机多卡的方式来去训练 Transformer。但是 Transformer 的特点是对于训练超参数非常敏感的网络,我们当时尝试了各种各样的训练方法,试了异步梯度更新、同步梯度更新等不同的分布式训练策略。我们最终发现是基于同步的 Adam,对于多机多卡是得到性能最稳定的一个更新方式。

    这种方式在谷歌开源的那个 Transformer 系统和其他比较开源的 Transformer 系统中,大多数都是用这样的方式来进行多机多卡训练的。这个背后理论上也没有很好的解释为什么这个对于 Transformer 是更好的,主要是通过大量的实验去得到的一个结果,大家如果有多机多卡的训练需求,最好考虑基于同步梯度更新的 Adam 算法。

    enter image description here

    另外一个是跟机器翻译很相关的问题,通常 GPU 显存有固定的大小,比较差的卡是 4 个 G、几个 G,好的卡可能有 12 个 G、24 个 G。对于 Transformer 而言,有些人做过实验,你如果训练时开更大 Batch size,训练的效果会更好。

    这就带来一个问题,你如果想开大的 Batch size 的话,一个句子里面的长度就会很有限,因为你显存就那么大。假设长度设成 40 的话,那我 Batch 能开 400 或者 500,如果我要开到 800 Batch 的话,能容纳的句子长度就会变小。这是一个搏弈的问题,因为硬件的限制导致你不得不做这个 Tradeoff。

    之前我们在 TensorFlow 低版本的时候都是不支持,只能用刚刚的方法。但是从 tensorflow1.5 以后,它引入了一个 “ Dynamic Batching ” 的机制,这是 tensorflow 的更新带来的变化,它会把原来写死的固定长度的图,用图中循环的方式表述,这样它可以支持动态的计算图,了解 tensorflow 的同学会比较清楚。

    通过用了这种机制之后,我们可以动态的改变这个 batch size,好处是当我们训练这个句长比较长的时候,就可以动态的把 batch size 缩小 。

    这样可以在训练的时候覆盖更长的句子,长的句子在翻译的案例中都有,比如电商描述或者新闻都有很长的句子,这样我们就能得到更多的训练语料,训练语料使用更加充分,对我们生产时性能得到很大的提升。

    另外一个是 “ Moving average ” 机制,这个可能也是比较专业的一个说法,它能保证训练的稳定性。

    它主要的做法是,在训练比如 5000 个保持一个模型,中间模型有一个滑动的窗口,每次计算时会把窗口内所有的模型进行平均化。这个平均化有几个作用:第一个作用是可以避免脏数据带来的某个点梯度更新很差的情况,它每次都是多个模型去做平均化,这样模型更加稳定,另外,借助专家系统的机制,把多个模型的结果组合在一起,它得到的性能也会有一定的提升。需要指出的一点是,如果你训练当中用了这个策略,生成模型之后再用 “ Moving average ” 的时候性能是打折扣的,因为训练当中已经用了 “ Moving average ” 机制,把这部分的性能释放出来一些了。但总体上我们推荐使用 “ Moving average ” 机制,这样会使整个训练更加稳定。

    提升模型鲁棒性的算法 “ Dropout ”,这是机器学习或者神经网络中比较常见的机制,但是在真实场景中非常好用的一个机制。Dropout 是在每层神经网络中随机屏蔽掉一些单元的神经输入,一般 Droput 是 0.1,我们会屏蔽掉 10% 的输入,因为屏蔽掉10%的信息,模型需要学得更好,它的鲁棒性更加好。

    我们也做了相关的实验,黄色的线是基线系统,蓝色的线是 Dropout,加入了 Dropout 时一开始模型训练得比较慢一些,但训练时间长了之后由于鲁棒性的提升,最后的曲线是会在那个之上的,最终收敛的性能也比那个更好。

    enter image description here

    这是在训练过程中的一个小的改进,主要是我们在大数据生产时,如何训练数亿级别语料规模的 Transformer 的重要手段。

    四、Transformer 在 WMT2018 全球机器翻译评测中的表现

    enter image description here

    大家不知道这个评测或者对机器翻译不熟悉的话,我可以给大家介绍一下。这个评测是国际公认的顶级翻译赛事之一,也是各大科技公司与学术结构展示自身翻译实力的一个平台,2018 年有很多霍普金斯大学、爱丁堡大学、亚琛工业大学、马里兰大学、微软、腾讯等很多机构参与,我们也取得了比较好的成绩。阿里巴巴翻译团队在 WMT2018 上 “ 英文到中文 ”、“ 英文到俄罗斯语 ”、“ 英文到土耳其语 ” 5 个语项上获得了第一名的成绩,这个图也是最终比赛的冠军图。

    enter image description here

    从这个竞赛可以反映出一个特点,就是 Transformer 在 2018 年竞赛中已经获得非常普遍的认同,80% 以上的系统都是采用 Transformer,这是个非常惊喜的改变。在 2017 年 WMT 评测时大多数系统是基于 RNN 和 LSTM 的系统,包括最终获得冠军的系统也是基于这个的。仅仅过了一年时间,各大机构都争先使用的 Transformer。这个是系统描述的图,参赛的几个系统当中大多数都有 Transformer 的关键词,还有一些其他一些基于 RNN 等系统是凤毛麟角的。

    所以 Transformer 网络在机器翻译领域已经受到广泛的认可。

    enter image description here

    这里给大家推荐几个比较好用的基于开源的机器翻译 Transformer 系统,在开源时代方便大家更好的学习,你有足够的语料,通过这些开源的机器翻译工具也可以搭建一个性能比较好的机器翻译引擎。

    主要推荐三个,第一个是 Marian,是爱丁堡大学公开的开源工具,非常好用;第二个是 Nematus,也是爱丁堡大学开发的;第三个是 Sockeye,是亚马逊推出的机器翻译工具。感兴趣的同学可以去网上下载并使用这些工具去学习,看它里面的代码是如何实现的。

    回到竞赛的部分,Transformer 从竞赛的角度有哪些经验?我这里分享了几点,做评测跟做工程很不一样,评测是限定的数据级,在限定的数据级上达到极致的效果,我觉得有四点:

    enter image description here

    • 第一,精细的数据过滤和筛选,不会投入大量的精力用于基础语料集合确定,主办方会给你一个语料集合,但这个语料集合里有一些噪音或者不好的语料,怎么通过各种规则、分类模型选择或者基于 n-gram 过滤等等,去选择一个比较好的技术语料集合,这是花大力气做的,因为如果底层技术都不好的话,训练出来的上层建筑肯定是不行的。

    • 第二,相信统计的力量。这是神经网络模型一个新的特点,成绩比较好的单位都训练很多模型,并且用很多策略训练不同的模型,最终用这些不同的模型去进行 Ensemble learning 或者进行组合,最终输出一个最好的系统。

      比如阿里可能会做 100 多个系统,采用 Ensemble learning 的方式。这也是成本越来越大的问题,为了达到更好的性能,我们需要介入更多 GPU 资源支持更多模型的训练,最后去达到这种微小几个点的性能提升。

    • 第三,尽量用更多参数去合数据和领域,因为它的数据和领域都是很限定的,所以你需要去用更多的方法、更多的策略去拟合策略,比如 Model fine-tuning 的策略,做微调的策略,你可以筛选更适合这个领域或者更拟合这个开发测试集的数据,去对你的 model 去进行 fine-tuning。

      另外,还可以做 global features 去做 Re-ranking,Re-ranking 也是对性能有一定提升的点,你在翻译时可能只看到部分信息,但是当你的翻译都生成之后,可以提取更多双语的信息,去对开发集调一个更好的模型。

    • 第四,尽可能用更多信息,因为主办方提供双语料的同时会提供大量的单语料,单语料可以有不同的方式,比如用 Back-Translation 的方式把它翻译回来,然后加入到你的模型里作为伪语料,伪的生成的双语语料加入到翻译系统里去训练,并且还可以去训练一个大规模的 n-gram 语言模型或者神经网络模型,最终加到 Re-ranking 模块里去调性能。

    主要就这四点,其他的信息也期待 WMT 在后面 Release 出来的 paper,我们会在文章里详细进行介绍。今天我们就结束了整个的介绍内容。

    五、总结:

    enter image description here

    Transformer 新型神经网络的主要特点:

    • 第一,并行化。并行化程度非常高。
    • 第二,深度神经网络,可以表征层次化的信息。
    • 第三,有复杂的 Attention 机制,可以表征指代消解或者各种不同词与词之间的依赖关系。
    • 第四,性能非常好。

    工业实践方面提出了:Synchronous Adam,Dynamic batching,Moving average,Dropout。四项比较实用的、值得尝试的方向。

    竞赛 经验方面:多模型 ensemble,Fine-tuning,re-ranking,back-Translation 这样一些竞赛比较适用的方法。也是从多维度给大家展现了 Transformer 的全貌。

    六、对外思考和对目前 Transformer 问题的思考,我们还有哪些地方缺失了?

    enter image description here

    这是我参考微软刘教授的报告,我读完他的报告之后比较认同的几个观点:

    第一个问题,我们在训练过程中提到优化目标是最大概率的优化目标,但是我们实际在去评价翻译质量时是用 bleu 去衡量的,这样等于优化目标和衡量的目标是不一致的,这样会带来一个显然的问题,就是优化目标和实际目标之间总是会存在差异的。

    给大家推荐两个可能的解决方案:第一个是 MRT,ACL2015 年提出的工作,把 bleu 值加入到神经网络优化目标方向之中。第二个是NAACL2018 年的工作,利用 GAN 网络,用对抗网络的形式去对优化目标进行表示,这样也是能够使训练的优化目标和实际的评价目标能够一致的一种方式。

    第二个问题,它还是需要大量的平行语料的数据,也就是标注数据。这个是对于一些小语种语言,比如东南亚的小语种平行语料是很稀缺的资源,如何对这些资源稀缺的语言搭建更好的翻译系统呢?

    目前有两个方向,一个是 Unsupervised neural machine Translation,这个做得比较好的是 Facebook,目前走得比较远,它是利用完全非平行单语的语料去训练机器翻译系统,目前性能还不足够好,但它仍然在发展过程中。

    另外,微软也提出基于 dual learning 方法,也是通过非平行语料,通过 dual learning 的方式提升性能,也是一个比较值得尝试的工作。

    第三个问题,它在生成翻译过程中是依赖知识搜索的。这个问题在于搜索是需要减值的,减值的标准是概率的大和小,但你在训练时是没有这个概念的,你的训练时是根本不会考虑到 beam search 的问题,但是在实际解码时对 beam search 模型是未知的,那在训练过程中如何把你搜索的过程也建模进去,这是一个比较好的方向。

    当时刘老师提到他想用 AlphaGo 基于 reward 计算的方式在模型训练的阶段去训练这个网络,你在每步 beam search 的时候它会给你计算一个 reward,通过这个 reward 来进行减值,这样可以把训练和解码两者结合到一起,是个更好的解决方案。

    第四个问题,由于 Transformer 它 Attention 的数据运算是比较复杂的,在生成翻译解码的阶段比较慢的,这是由于 Attention 的构造而导致的。

    这里给大家推荐的是基于 Average Attention Network(Zhang,ACL2018),它巧妙的改变了 Attention 的结构,最后可以很高效的计算出目标端的 Attention,在性能不受损或受微小损失情况下有 2 - 3 倍的性能提升。

    未来期待更多能在 Transformer 上改进的工作,把神经网络推向更高的位置。

    七、Q&A

    以上是本次讲座的主要内容,给大家争取的福利是 10 - 15 分钟问答环节。优秀的提问者可以获得定制T恤或者图书一本,欢迎大家踊跃的提问。

    Q:“ 为什么 Conv Seq2Seq 不如 Self-Attention?”

    A: Conv Seq2Seq 是基于 CNN 的一个比较新的工作,是 Facebook 提出来的,这个众说纷纭,它在 CNN 上是比较好的,在性能上大家也都试过,大部分反馈不如谷歌提出的 Self-Attention。从我个人观点来说,它在 Attention 计算上不然 Transformer,所以它可能掺杂这个部分。

    另外,Facebook 没有投入更多人力去优化这个,而 Transformer 从一开始到后面迭代了很多版本,一开始性能可能不是那么好,但后来谷歌持续投入、维护、不断升级,从去年 6 月份提出开始一直到 12 份都有代码的更新 ,包括其他的像发电报大学也都跟踪这个方向,众人拾柴火焰高,大家不断投入这个领域,能够把这个越做越好。

    Q:“ Transformer 中三个地方用到的 Attention 能不能分开讲一讲每个地方的输入输出? ”

    A:这个是刚才给大家 Miss 掉的地方。回到之前的 Attention 计算方式的部分,看这个主要的图,是 Encoder 的部分用的是 Self-Attention 的部分,decoder 用了 Self-Attention 和一个 Decoder Attention,这确实是三个地方用到。

    第一个地方在 Encoder 端的输入是加了 “ Positional Encoding ” 的 word embedding,直接输入到这个了 Self-Attention 里,输出是刚才提的的 z 矩阵,再输入到 Feed Forward network 里。Decoder 的部分也是一样,之前每次生成的词作为输入,然后加到 Positional Encoding 之后输入到 Self-Attention 里,Encoder 就是 Self-Attention 的输入。

    Q:问了一个和阿里相关的:“ 阿里做电商描述训练的时候,如何解决领域内数据不足的问题 ”?

    A:这是个比较具体的问题,首先,电商场景是阿里的一个重要场景,我们做电商时会收集一部分电商类的数据,阿里巴巴内部也有淘宝比较丰富的数据。有了这个以后会有基于 n-gram 或者基于分布式的筛选模块,基于这些之前互联网上收集到的大规模语料库中筛选相关的句子,得到充足的领域内的语料,领域内的训练语料应该越多越好。

    Q:“推荐一下深度学习、机器翻译方面的好书。”

    这个可以给大家推荐最近邓老师和清华大学刘老师合作发表的一部英文书,叫《 Deep Learning in Natural Language Processing 》,邓老师是语音识别方向的大牛,任老师是机器翻译、自然语言处理方面的大牛,这本书是 2018 年最新出版的,这本书会包含最新的机器翻译、神经网络内容,大家有兴趣的话可以考虑一下。


    本文首发于GitChat,未经授权不得转载,转载需与GitChat联系。

    阅读全文: http://gitbook.cn/gitchat/activity/5b56e0ba70667162e76e4d32

    您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。

    FtooAtPSkEJwnW-9xkCLqSTRpBKX

    展开全文
  • QTQML下实现多国语言翻译

    千次阅读 2018-12-09 14:58:29
    某些情况下,我们使用QT开发的界面需要完成多国语言的...xx.ts是翻译的源文件,这个文件其实是一个xml文件,里面写的是源语言和对应的翻译语言。xx.qm文件是最终的发布文件,也是应用程序运行时需要加载的外部文件...

    在某些情况下,我们使用QT开发的界面需要完成多国语言的翻译工作。QT在这方面其实已经给出了支持,本文主要讲述在使用QML编写界面的情况下如何实现多国语言的翻译。

    若要实现QT多国语言翻译,必须要搞清楚两个文件: xx.ts和xx.qm文件。xx.ts是翻译的源文件,这个文件其实是一个xml文件,里面写的是源语言和对应的翻译语言。xx.qm文件是最终的发布文件,也是应用程序运行时需要加载的外部文件。下面看一下两种文件的内容:

    xx.ts可以使用ultraEdit打开,注意不要转换为DOC格式....,可以看到如下:

    xx.ts格式

    其中,每一对<context></context>之间为一个.qml或.cpp所包含的所有字符串。两个messag之间为一个翻译区,包含源语言文字和翻译后语言文字。<source>为源语言(此处为英语),<translation type="vanished"> 为要翻译的语言(此处为西班牙语)。若需要增加新的翻译语句,只需要在增加一对<message>xxxx</message>,最简单的方法是复制一对<message>xxxx</message>之间的内容,然后修改源字符串内容和修改后字符串内容。

    xx.qm文件为二进制文件,此处不再展示。

    下面重点讲一下使用QT完成翻译工作的步骤:

    1. QML中所有要翻译的字符串地方需要使用qsTr(字符串),Widget中应该使用tr(字符串)。只要这样才能被QT的翻译工具所识别。 

    2. 使用命令lupdate生成.ts文件。lupdate会扫描程序中用qsTr()和tr()所指定的字符串,并写入到相应的.ts文件中。此处需注意:使用QTCreator自带的工具-外部-QT语言家-更新翻译功能可能不好用,无法正确的生成完备的.ts文件。(可以下载最新的QT版本试试)。建议使用命令行lupdate命令来实现。windows下的lupdate命令一般位于mingw下(使用QTCreator自带的工具-外部-QT语言家-更新翻译可以找到lupdate所在的路径)。命令使用方式如下:

    Linux下: 使用./lupdate test.pro -ts cn.ts, 则会扫描整个工程,并把对应的字符串写入cn.ts文件中。

    windows下,使用lupdate test1.qml test2.qml test3.qml -ts cn.ts,则会扫描test1.qml,test2.qml,test3.qml,将三个源文件中的字符串写入cn.ts文件中。windows下对pro文件可能不识别,此时需要对每一个.qml文件单独操作,lupdate默认可以追加填写cn.ts文件。

    lupdate, test.pro 与 test1.qml的路径必须要正确,否则找不到对应的命令或文件。

    3. 手动进行翻译。第2步操作只是将程序中待翻译的字符串全部汇集到一个xx.ts文件中。还需要对xx.ts中的每一个字符串进行手动翻译。毕竟自动翻译的功能太过强大,目前尚不具备条件。此处有两种方法:

         (1)  使用QT的自带的工具进行翻译。使用QT的工具:Linguist。此工具可以打开ts文件,进行逐一翻译。如下图所示:源文是程序中扫描到的字符串,译文是需要自己手动翻译后填写翻译的结果。此处需逐一将待翻译的内容翻译完成并填写至译文处并进行保存。

          

        (2) 使用ultraEdit打开xx.ts文件(注意不要转换格式),填写所有的<translation type="vanished"></translation>之间的内容。

    4. 生成qm文件:使用命令行 lrelease cn.ts -qm cn.qm。或者直接使用QTCreator的工具-QT语言家-lrease进行发布生成。会自动在当前程序路径下生成cn.qm文件。

    5. 在QT工程的Pro文件中增加TRANSLATIONS += cn.ts。 cn.ts只是示例,你可以改成你自己的.ts文件名。

    6. 在main函数中使用如下语句进行加载,注意此时加载的是外部cn.qm文件,如下所示:   

               QTranslator tsor;
                tsor.load("cn.qm");
                app.installTranslator(&tsor);

    注意事项:

    必须在main函数中的load qml文件之前加载翻译文件cn.qm,否则无法进行翻译。如果qml界面已经运行起来,然后需要翻译。除了重新加载翻译文件外,需重新加载qml文件,否则无法完成翻译。

    7. 发布可执行程序时,记得将xx.ts与xx.qm一并与可执行程序发布,否则程序找不到对应的文件,无法完成翻译工作。另外,建议使用绝对路径查找xx.qm文件,因为你设置自启动程序时,依靠当前路径是找不到cn.qm的。

    展开全文
  • 1.QT 添加翻译文件: 添加qt工程软件的翻译文件: 然后选择对应的国家和...当整个软件的需要右键功能的翻译时,需要用到qt自身的翻译文件,可以下图里面找到: 2.加载翻译文件: QTranslator translator;
  • 如何jsp里面写java代码

    万次阅读 2016-10-27 10:55:49
    那么如何jsp中写java代码呢! jsp中写java代码有如下三种方式: ,这里面可以申明变量或方法,注意:这里面申明的变量是全局的 ,与上面的方法相比,这个方法的局部的 ,用于输出表达式到浏览器,注意:这里面的...
  • python进行英语文献翻译

    千次阅读 2018-07-11 15:02:37
    使用python进行英语文献翻译 1. 前期准备 安装PyPDF2模块、申请百度翻译api。...百度翻译api申请,你可以进入百度翻译开放平台进行注册申请,然后开发者信息里面找到你的Appid以及秘钥。 这个秘钥后...
  • 我们进入百度翻译,打开检查,选中network,在翻译里面输入what,选中preview,出现的Name里面查找,发现v2transapi里有翻译结果出现,再过去看Headers。 发现真正的url为:...
  • 这是一个自动翻译sci文章的软件,里面有教程,很适合英语水平差的学生使用,对科研狗很好用,妈妈再也不用担心我的组会文献翻译了。软件很好用, 有的放矢
  • Unity翻译工具(使用百度翻译

    千次阅读 2018-12-04 19:42:23
    有时候临时改了加了一些中文,然后多语言那边没有及时给到外包翻译,这时候拿个百度...代码里面必须要加appid和password(秘钥) 上面地址打开管理控制台就可以申请,是免费的 如下图,最下面是appid和秘钥 ...
  • C#调用微软在线翻译API实现简单的翻译功能,自己写翻译软件,当然了里面的技术拓展还是要自己来
  • 机器学习里面的Ground Truth是什么意思

    万次阅读 多人点赞 2018-05-28 18:18:04
    看英文文献的时候,经常会看到Ground Truth这个词汇,翻译的意思是地面实况,放到机器学习里面,再抽象点可以把它理解为真值、真实的有效值或者是标准的答案。 维基百科对Ground Truth机器学习领域的解释是: ...
  • 网上看到很多 jquery-xxx.js eclipse中报错的解决方案大多是说 项目右键 Properties->Validation->JSP Content Validator 这项的右边点击 ... 按钮,然后点 Add Exclude Group-> Exclude Group 点 Add Rule->...
  • 我做的几个cshtml页面都用到了一部分相同的代码,而且代码量还挺多,我可以把这部分代码放到一个新建的cshtml里面,然后再用这些页面来引用公共的cshtml吗?就像angularjs里面的ng-include
  • 原因:有很多单词要背,然后一开始一个一个查单词意思,令人智熄,于是心想批量翻译。 准备工作 一台装有pythonista的iPad (当然用电脑肯定是可以的,只不过我弄的时候也是想看看iPad写python体验怎么样。) 注册...
  • 百度OCR+翻译

    2018-10-25 15:52:37
    支持更换百度api密钥 里面内附一个 调用的百度免费的OCR文字提取 +每月免费字符翻译万的免费接口
  • 使用MOSES搭建网页翻译系统

    千次阅读 2013-08-21 11:51:23
    你完成整套moses的训练和微调(tuning)之后,你可以本机上对文本里面的内容进行翻译,或者手动终端输入进行翻译。这种方式作为研究是可以的,只适合单人使用,一个实际的服务器能同时处理多个人的翻译需求,且...
  • 机器翻译评价指标BLEU介绍

    万次阅读 多人点赞 2019-08-28 11:15:37
    最近需要设计一个机器翻译相关的试验, 其中好多东西都不同, 先从基础的评价指标来吧. 本文翻译自Jason Brownlee的博客[1]. 可能会简化一部分内容, 如有需要请读者直接读原文. 0. 前言 BLEU (其全称为Bilingual ...
  • 写代码时候看到android代码里的javadoc说onReceive是The function is normally called within the main thread of its process, so you ...(翻译:这个方法一般会主线程里调用,所以你不该在里面执行时间过
  • 使用插件网页翻译上去除论文中的换行符翻译论文时的问题该插件信息:下载和更新链接插件名可使用的功能:可使用的网页翻译页面:如何使用本插件:注意事项:已知Bug:声明: 本方案与现有搜索到的方案不同,搜索到...
  • 在翻译前面的话

    千次阅读 2013-04-26 15:35:09
     写这个说在翻译前面的话之前,我已经翻译了一篇文章 ,可以说那是我的第一次,翻译起来很吃力,主要原因有英文不过关,有些术语不是很清楚,对文章的内容或者相关技术还不是很了解,而且还时不时的想加入自己的...
  • 使用git的时候往往会保存一些东西,保存的时候使用的就是git stash,强大的git使得保存修改和恢复修改变的很容易,但有时候时间久了不记得stash里面的内容是什么了,通过stackflow里面查找,找到了一个好的...
  • 使用百度翻译接口需要网上申请key,代码里面有URL。 package cn.secure.util; import java.io.BufferedReader; import java.io.Closeable; import java.io.IOException; import java.io.InputStream; imp...
  • 自动化专业通用的毕设外文翻译里面包含了中英文翻译
  • 原文来自...直接在里面翻译好了 KINS NAME SYNOPSIS DESCRIPTION SEE ALSO NAME kins − kinematics运动学 definitions for LinuxCNC SYNOPSIS loadrt triv
  • 前几天因为频繁使用翻译功能,但是市面上的翻译软件都臃肿了,对我我这个只需要翻译的人没有什么太大用处,反而有更多弊端。 于是百度开发者中心申请了一个百度翻译的API。...控制面板里面

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 272,576
精华内容 109,030
关键字:

在里面翻译