首页 > TAG信息列表 > mention

笔记:Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction

Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction 作者:Verga et al., NAACL 2018. 目录 简介 模型 总结 1 简介 主要针对文档级别实体关系抽取,基于Transformer编码。由于针对整个文档中所有的mentions,那么需要跨语句处理,利用m

笔记:End-to-end Neural Coreference Resolution

End-to-end Neural Coreference Resolution 作者:Lee et al. EMNLP 2017. 目录 简介 模型 总结 1 简介 本文主要针对Coreference Resolution(共指消解)任务,提出一个神经网络端到端模型。既然是共指消解,那么每个可能的mention span的表示就是核心部分,而我们的目的就是为每个span

Neural Segmental Hypergraphs for Overlapping Mention Recognition

发表时间2018年   使用超图结构 解决重叠实体识别问题 Abstract:         In this work, we propose a novel segmen tal hypergraph representation to model overlapping entity mentions that are prevalent in many practical datasets. We show that our mode

事件共指消解系列文章——论文笔记

事件共指消解 KBP数据集 19.09《基于多注意力机制的事件同指消解方法》 任务描述:用于判断文档的多个事件实例是否指向同一个事件,并将相互同指的事件进行聚类,形成一个事件链。 比如: S 1: A Cuban patrol boat with four heavily armed men landed on American shores. S2:These bo

DocRED数据集及其baseline

DocRED是thunlp在2019年发布的一个大规模、人工标注、通用领域的篇章级别关系抽取数据集。数据来源是wikipedia和wikidata。paper, code Dataset: 人工标注数据:来自5053篇维基百科文档,共13w个实体,5w个关系 远程监督数据:来自101873篇维基百科文档(10w+),共255w个实体,88w个关系 1

指代消解《End-to-end Neural Coreference Resolution》论文笔记

此前的研究 语法解析的错误会传递到模型中(parsing mistakes can introduce cascading errors)手动特征工程的构建不具有泛化性(many of the hand-engineered rules do not generalize to new languages) 基本术语 参考链接1:https://blog.csdn.net/Answer3664/article/detail