首页 > TAG信息列表 > NMT

NLP十大Baseline论文简述(七) - deep_nmt

文章目录 前言:1. Paper:2. BlEU介绍3. 背景介绍4. 论文摘要5. 研究意义6. 论文总结 前言: 如果需要对基础概念不了解,可以参考这里。我汇总了论文中涉及的大部分概念,以便更好的理解论文。 1. Paper: Sequence to Sequence Learning with Neural Networks 使用神经网络来做序

Meta-Learning for Low-Resource Neural Machine Translation翻译

摘要 在本文中,我们提出针对低资源神经机器翻译(NMT)扩展了最近引入的与模型无关的元学习算法(MAML)。我们将低资源翻译视为一个重要的学习问题,并且我们学会了基于多语言高资源语言任务来适应低资源语言。我们使用通用词汇表示法来克服不同语言之间的输入输出不匹配问题。我们使用

机器翻译中的强化学习:优点、缺点以及不足

本文译自 RL in NMT: The Good, the Bad and the Ugly,作者是海德堡大学的 PhD Julia Kreutzer,翻译已获得作者授权,并且她欢迎大家对文章提出反馈,可以邮件和她交流(PS:作者非常 nice)。在这篇文章中,我会向大家介绍在神经机器翻译(NMT)中使用强化学习(RL)的三个方面:优点:能够和传统的极大似然

论文阅读《Paraphrasing Revisited with Neural Machine Translation》

摘要 从神经网络翻译的角度重新审视双语转述,提出了一种基于神经网络的转述模式。 模型可以表示连续空间中的释义,估计任意长度文本段之间的语义关联度,或者为任何输入源生成候选释义。 跨任务和数据集的实验结果表明,神经解释比传统的基于短语的旋转方法更有效。 相关工作 关于释义

TensorFlow+TVM优化NMT神经机器翻译

TensorFlow+TVM优化NMT神经机器翻译 背景 神经机器翻译(NMT)是一种自动化的端到端方法,具有克服传统基于短语的翻译系统中的弱点的潜力。本文为全球电子商务部署NMT服务。 目前,将Transformer用作NMT系统的主要骨干,对基于经典RNN / LSTM模型的同等(甚至更高)精度进行高效的离线训练更为

基于Attention的机器翻译模型(Visualizing A Neural Machine Translation Model)

参考: https://blog.csdn.net/qq_41664845/article/details/84245520#t5 https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/ 论文题目:Neural Machine Translation by Jointly Learning to Align and Translate 论文

Java Native Memory Tracking(NMT)

典型特性 (1)NMT功能默认关闭 (2)借助jcmd工具可以获取摘要/详细报告 (3)建立基线并比较其变换量 (4)在进程退出时打印内存报告 1.开启方法 启动目录中添加如下参数,默认为off,可以设置为summary或detail来打印概要或详细信息。 -XX:NativeMemoryTracking=[off | summary | detail] 注意:打开

Explicit Sentence Compression for Neural Machine Translation翻译

摘要 基于transformer的最新技术的神经机器翻译(NMT)系统仍遵循标准的编码器-解码器框架,在该框架中,具有自注意机制的编码器可以很好地完成源语句的表示。尽管基于Transformer的编码器可以有效地捕获源句子表示形式中的常规信息,但是代表句子要点的主干信息并未特别关注。在本文