其他分享
首页 > 其他分享> > Raki的读paper小记:通过教师-学生模型在目标语言上的无标注数据上学习来实现单源/多源跨语言NER任务 from ACL2020

Raki的读paper小记:通过教师-学生模型在目标语言上的无标注数据上学习来实现单源/多源跨语言NER任务 from ACL2020

作者:互联网

Single-/Multi-Source Cross-Lingual NER via Teacher-Student Learning on Unlabeled Data in Target Language

不要问我为什么改成了中文名,因为标题名字太长了!!

Abstract & Introduction & Related Work

Methodology

Single-Source Cross-Lingual NER

NER Model Structure

单教师的训练模型
在这里插入图片描述
首先经过一个encoder层进行编码
在这里插入图片描述
然后经过一个线性层,再通过softmax得到推理的分布
在这里插入图片描述

Teacher-Student Learning

Training

训练学生模型来模仿教师模型在目标语言上对实体标签的分布的输出,这样能使教师模型的知识迁移到学生模型上,而学生模型也可以利用未标记的目标语言数据中的有用的特定语言信息

学生模型和教师模型对第i个token的实体分布输出分别为:
在这里插入图片描述
定义教师-学生模型的损失函数:
在这里插入图片描述
总损失:
在这里插入图片描述

Multi-Source Cross-Lingual NER

在这里插入图片描述

Extension to Multiple Teacher Models

k个教师模型的组合
在这里插入图片描述

Weighting Teacher Models

源语言和目标语言相似度更高就应该分配更高的权重

Without Any Source-Language Data

平均分配
在这里插入图片描述

With Unlabeled Source-Language Data

由于没有标注数据,已有的监督学习方法并不适用,在此引入一个语言辅助识别任务来计算源语言与目标语言之间的相似度,然后根据这个指标对教师模型进行加权

用一个双线性模型来对句子u和第k种语言的可学习向量 μ \mu μ 进行计算
在这里插入图片描述
在这里插入图片描述
P是讲所有的 μ \mu μ 堆叠起来形成的矩阵,我们可以推导出特定语言的概率分布
在这里插入图片描述
参数M和P是通过使用交叉熵损失经过训练,可以识别源语言合集中每个句子的语言

正则项鼓励语言嵌入向量的不同维度来关注不同的方面
在这里插入图片描述
通过softmax来计算权重参数
在这里插入图片描述

Experiments

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Conclusion

在本文中,我们提出了一种用于单/多源跨语言NER的师生学习方法,通过使用源语言模型作为教师,在目标语言的未标记数据上训练学生模型。该方法不依赖于源语言的标记数据,能够利用未标记的目标语言数据中的额外信息,这解决了以前基于标签投影和基于模型转移的方法的局限性。我们还提出了一种基于语言识别的语言相似性测量方法,以更好地衡量不同的教师模型。在基准数据集上进行的大量实验表明,我们的方法优于现有的sota

Remark

截止2022年2月7,这篇paper的方法在Cross-Lingual NER on CoNLL German数据集上仍然是sota,说明这个方法确实蛮有效的,整整一年也没有新sota出来(可能是做这个方向的人少?),总之novelty感觉算是中规中矩,模型还算简单,个人认为是蛮不错的一篇paper

标签:语言,标签,模型,源语言,目标语言,ACL2020,NER
来源: https://blog.csdn.net/Raki_J/article/details/122807436