首页 > TAG信息列表 > tacotron2

语音合成论文优选:BVAE-TTS BVAE for Non-Autoregressive TTS

声明:语音合成论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。 欢迎关注微信公众号:低调奋进 Bidirectional Variational Inference for Non-Autoregressive Text-to-Speech 本文是ICLR 2021的文章,目前看到的文

论文阅读笔记:Tacotron和Tacotron2

提示:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处。 文章目录 前言介绍模型结构TacotronCBHG内部结构说明Decoder结构说明post-processing net和waveform synthesis模型详细的配置 Tacotron2 实验结果TacotronTacotron2 关于vocoder

基于Transformer的语音合成

论文:           Neural Speech Synthesis with Transformer Network 摘要:            尽管端到端神经网络text-to-speech Tacotron2实现了state of the art performance 表现,但存在两个问题,1.在训练和推理过程的低效率,2. 难以使用当前的递归神经网络(RNN)对长期依赖性

端到端语音合成:tacotron2及其改进方向

传统的语音合成方案如Merlin、HTS等,依赖于fulllabel和匹配问题集的生成,导致前端的处理工作是非常繁琐的。近年来,为了减少前端的数据准备工作,诞生了tacotron等优秀的端到端语音合成方案。本文着重讲解一下在业界广受好评的tacotron2,其结合了seq2seq(序列到序列)、位置敏感注