其他分享
首页 > 其他分享> > 【论文泛读124】在自然语言生成的 Pretrain-Finetune 范式中桥接子词间隙

【论文泛读124】在自然语言生成的 Pretrain-Finetune 范式中桥接子词间隙

作者:互联网

贴一下汇总贴:论文阅读记录

论文链接:《Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation》

一、摘要

预训练-微调范式的一个众所周知的局限性在于它由一刀切的词汇表造成的不灵活性。这可能会削弱将预训练模型应用于自然语言生成 (NLG) 任务时的效果,尤其是对于具有显着差异的上游和下游任务之间的子词分布。为了解决这个问题,我们通过额外的嵌入传输步骤扩展了 vanilla 预训练-微调管道。具体来说,引入了即插即用的嵌入生成器,以根据其形态相似的嵌入的预训练嵌入来生成任何输入令牌的表示。因此,也可以有效地初始化下游任务中不匹配标记的嵌入。我们在预训练-微调方式下对各种 NLG 任务进行了实验。

标签:嵌入,训练,泛读,Finetune,微调,Pretrain,桥接,NLG
来源: https://blog.csdn.net/qq_41485273/article/details/118002161