其他分享
首页 > 其他分享> > Language Models as Knowledge Bases?

Language Models as Knowledge Bases?

作者:互联网

Abstract

预训练模型在学到语言学知识的同时,可能还保存了训练数据中的 relational knowledge, 并且也许可以回答完形填空之类的问题。

语言模型相比于结构化的知识库具有很多优势,比如

我们对各种预训练语言模型中已有的(没有 fine-tuning) relational knowledge 进行了深度分析。我们发现:

预训练语言模型在未经 fine-tuning 就对事实性知识具有惊人的召回能力,这显示它们作为无监督开放领域问答系统的潜力。

相关代码:https://github.com/facebookresearch/LAMA

Introduction

为了填充知识库,需要复杂的 NLP pipeline, 涉及到实体抽取,共指消歧,实体链接和关系抽取(Surdeanu and Ji, 2014). 这些组件通常需要有监督的数据和固定的 schema.

标签:语言,Knowledge,训练,Models,模型,知识,Bases,事实性,knowledge
来源: https://blog.csdn.net/chansonzhang/article/details/122708651