精华内容
下载资源
问答
  • nmt

    2018-09-20 12:38:37
    GitHub 链接:https://github.com/tensorflow/nmt

    GitHub 链接:https://github.com/tensorflow/nmt

    展开全文
  • NMT

    2018-10-28 14:34:12
    1)刚开始时,在RNN的基础上引入attention,即将两者结合应用,完整解释并附上完整code。详见下链接: 基于RNN+Attention的机器翻译 2)接着,Facebook在CNN的基础上引入attention,参见论文:Convolution ...

    1)刚开始时,在RNN的基础上引入attention,即将两者结合应用,完整解释并附上完整code。详见下链接:

    基于RNN+Attention的机器翻译

    2)接着,Facebook在CNN的基础上引入attention,参见论文:Convolution Sequence to Sequence Learning

    3)16年,Google直接推翻以前的模式,用也仅仅用attention就可以达到效果,甚至更好。参见论文:Attention is all you need.

    4)接着Karim在Google的基础上进行改进,利用Weighted Transformer架构达到了更好的Performance.参见论文:Weighted Transformer Network For Machine Translation.
     

    Encoder-Decoder框架

    要了解深度学习中的注意力模型,就不得不先谈Encoder-Decoder框架,因为目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。

    Encoder-Decoder框架可以看作是一种深度学习领域的研究模式,应用场景异常广泛。图2是文本处理领域里常用的Encoder-Decoder框架最抽象的一种表示。

     

    展开全文
  • nmt-源码

    2021-03-15 07:16:07
    nmt
  • of building a competitive NMT model with attention mechanism. We then discuss tips and tricks to build the best possible NMT models (both in speed and translation quality) such as TensorFlow best ...
  • Canopen_NMT.doc

    2021-03-22 10:40:54
    Canopen_NMT
  • matlab代码左移-nmt2:nmt2

    2021-05-24 05:21:46
    我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • sanskrit_nmt 为梵文训练NMT模型 通过训练各种神经机器翻译(NMT)架构来进行各种Sanskrit NLP任务(三叉戟拆分,标记等)的实验。 使用Transformer模型进行Sandhi拆分 具有脚本+输出模型,用于使用OpenNMT-tf库...
  • NMT-源码

    2021-03-18 15:53:32
    NMT 实现神经机器翻译模型。该项目分为两个主要阶段。 阶段1 开发单词嵌入模型 第1部分 开发Word2Vec 第2部分 开发GLoVe 阶段2 开发神经机器翻译模型 第1部分 开发LSTM编解码器 第2部分 注意开发变压器模型
  • 持续学习 在NMT中学习持续学习
  • 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • NMT_ATT-源码

    2021-03-30 09:46:58
    NMT_ATT
  • nmt 观察

    2018-06-22 15:49:24
    1、https://github.com/tensorflow/nmt/issues/183中讲解了如何使用google的nmt。即https://github.com/tensorflow/nmt

    1、https://github.com/tensorflow/nmt/issues/183

    中讲解了如何使用google的nmt。即https://github.com/tensorflow/nmt

    2、https://github.com/brightmart/machine_translation/blob/master/tokeniz_chinese2.py使用的是jieba分词

    而https://github.com/hxsnow10/nmt说using nltk and chineses tokenizer.

    3、https://github.com/mingfengwuye/nmt/blob/master/nmt/scripts/wmt17-zh-en.sh

    有下载中英文翻译的数据并分词。但是分词的效果很差。

    4、subword-nmt, Subword神经网络翻译 

    5、https://github.com/tensorflow/nmt/blob/tf-1.4/nmt/scripts/download_iwslt15.sh

    是直接下载已经分词好后的vocba

    6、tensor2tensor中英文分词的结果与nmt英越语分词的结果差别有:前者是<pad><EOS> 后者是<unk><s></s>。另外,前者字典里的词都有引号,去除引号参考:python 修改文件中的内容   python 去除字符串两端的引号

    将前者改成后者的样式,但是对实验结果没有影响。

    7、基于注意力机制,机器之心带你理解与训练神经机器翻译系统

    8、https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/data_generators/README.md

    讲解了data_generate



    展开全文
  • 基于注意力的NMT,具有覆盖范围,上下文门和重构 这是基于Theano的RNNSearch,它集成了以下技术来缓解NMT遭受的流畅但翻译不充分的问题。 —用于指示源词是否已翻译,这可以减轻过度翻译和翻译不足的情况。 —可...
  • HotSpot NMT介绍

    2019-11-18 14:43:33
    The Native Memory Tracking (NMT) is a Java Hotspot VM feature that tracks internal memory usage for a HotSpot JVM. You can access NMT data using jcmd utility. NMT in this release does not tra...

    Overview

    The Native Memory Tracking (NMT) is a Java Hotspot VM feature that tracks internal memory usage for a HotSpot JVM. You can access NMT data using jcmd utility. NMT in this release does not track third party native code memory allocations and JDK class libraries. Also, this release does not include NMT MBean in HotSpot for JMC.

    Key Features

    • Native Memory Tracking has the following features and when used with jcmd can track memory usage at differnet levels.

    • NMT for Hotspot VM is turned off by default. Turn this feature on using JVM command line option. See the Native Memory Tracking command man page.

    • Memory tracking data can be accessed using jcmd utility. See use jcmd to access NMT data.

    • Generate summary and detail reports.

    • Establish an early baseline for later comparison.

    • Request a memory usage report at JVM exit with the JVM command line option. See NMT at VM exit.

    • NMT can be shutdown using jcmd utility, but can not start/restart using jcmd.

    How to Use Native Memory Tracking
    First enable NMT and then use jcmd to access the data collected thus far.

    Enable NMT
    Enable NMT using the following command line. Note that enabling this will cause 5-10% performance overhead.

    -XX:NativeMemoryTracking=[off | summary | detail]

    offNMT is turned off by default.
    summaryOnly collect memory usage aggregated by subsystem.
    detailCollect memory usage by individual call sites.

    Use jcmd to Access NMT Data
    Use jcmd to dump the data collected and optionally compare it to the last baseline.

    jcmd VM.native_memory [summary | detail | baseline | summary.diff | detail.diff | shutdown] [scale= KB | MB | GB]

    summaryPrint a summary aggregated by category.
    detail
    • Print memory usage aggregated by category
    • Print virtual memory map
    • Print memory usage aggregated by call site
    baselineCreate a new memory usage snapshot to diff against.
    summary.diffPrint a new summary report against the last baseline.
    detail.diffPrint a new detail report against the last baseline.
    shutdownShutdown NMT.

    NMT at VM Exit
    Use the following VM diagnostic command line option to obtain last memory usage data at VM exit when Native Memory Tracking is enabled. The level of detail is based on tracking level.

    -XX:+UnlockDiagnosticVMOptions -XX:+PrintNMTStatistics

    扩展
    java8给HotSpot VM引入了Native Memory Tracking (NMT)特性
    例子

    -XX:NativeMemoryTracking=summary
    
    /zxjdk-8u212-linux-x64/bin # jcmd 413  VM.native_memory summary scale=MB
    413:
    
    Native Memory Tracking:
    
    Total: reserved=1821MB, committed=496MB
    -                 Java Heap (reserved=300MB, committed=200MB)
                                (mmap: reserved=300MB, committed=200MB)
    
    -                     Class (reserved=1092MB, committed=76MB)
                                (classes #14152)
                                (malloc=2MB #26102)
                                (mmap: reserved=1090MB, committed=74MB)
    
    -                    Thread (reserved=130MB, committed=130MB)
                                (thread #130)
                                (stack: reserved=129MB, committed=129MB)
    
    -                      Code (reserved=251MB, committed=42MB)
                                (malloc=7MB #10703)
                                (mmap: reserved=244MB, committed=35MB)
    
    -                        GC (reserved=1MB, committed=1MB)
                                (mmap: reserved=1MB, committed=1MB)
    
    -                  Compiler (reserved=1MB, committed=1MB)
    
    -                  Internal (reserved=25MB, committed=25MB)
                                (malloc=25MB #19980)
    
    -                    Symbol (reserved=18MB, committed=18MB)
                                (malloc=16MB #167642)
                                (arena=2MB #1)
    
    -    Native Memory Tracking (reserved=3MB, committed=3MB)
                                (tracking overhead=3MB)
    
    

    其中reserved表示应用可用的内存大小,committed表示应用正在使用的内存大小

    展开全文
  • NMT是否优于SMT-源码

    2021-02-21 10:22:02
    NMT是否优于SMT
  • 这是的扩展,其中包括SR-NMT的代码,该代码已在引入。 快速开始 一些有用的工具: 下面的示例使用Moses标记程序( )准备数据,并使用moses BLEU脚本进行评估。 wget ...
  • transformer_nmt-源码

    2021-04-11 01:28:04
    Yassine Kassis,FrancoisHébert,Yu Chen IFT 6010转移学习项目 如何从头开始制作变压器 如何使用Pytorch变压器训练NMT
  • NMT时间表 NMT 编程调度应用程序
  • nmt_utils and models

    2018-10-11 10:03:54
    Andrew ng 深度学习专项课程 序列模型 week3 neural machine translation, nmt_utils
  • NMT机器翻译Attention.zip

    2021-08-28 16:29:27
    这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但...
  • 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意...
  • nmt.py: contains the neural machine translation model and training/testing code. vocab.py: a script that extracts vocabulary from training data util.py: contains utility/helper functions Example ...
  • 基于Transformer NMT模型的聊天机器人 nmt-chatbot是使用的chatbot的实现。 该项目的主要目的是制作一个聊天机器人,但它与神经机器翻译完全兼容,并且仍可用于两种语言之间的句子翻译。 直接用法 打开以下Google ...
  • nmt-top-rank-源码

    2021-06-03 19:06:28
    nmt-顶级 确保你已经安装了 node.js。 在根文件夹中键入“node server.js”,然后导航到 localhost:5000
  • corpora_ayuuk-spanish_nmt

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,419
精华内容 2,167
关键字:

nmt