首页 > TAG信息列表 > EMNLP

EMNLP 2021 基于Prompt的方面级情感分析研究【转载以学习、回忆】

来源链接:https://mp.weixin.qq.com/s/xaG9Nqxhb1eqt1q6DSZMZg 来源Fudan DISC实验室 转载以学习、回忆 1. 基于自然语言提示的开放式方面目标情感分类 (Open Aspect Target Sentiment Classification with Natural Language Prompts) 该篇文章利用自然语言提示(Prompt),将方面目标

ARAML: A Stable Adversarial Training Framework for Text Generation (EMNLP 2019)

本文仅供学习使用 这是清华大学2019年在EMNLP发表的工作,文本生成方向。 ARAML: A Stable Adversarial Training Framework for Text Generation (EMNLP 2019) 最大似然估计是语言生成中的最常用的方法,但该方法面临包括偏差(Exposure Bias)问题。不少工作提出可以使用生成式对抗网络(G

EMNLP 2021信息抽取论文合集

EMNLP是由国际计算语言学协会下属特殊兴趣小组SIGDAT发起并组织的系列会议,是自然语言处理领域顶级的国际学术会议之一。EMNLP 2021 将于 11 月 7 日 - 11 日进行,一共接收了656篇长文、191篇短文,Findings接收了305篇长文、119篇短文。 AMiner通过AI技术,对EMNLP2021收录的会议

[paper reading][EMNLP 2018] Learning Sequence Encoders for Temporal Knowledge Graph Completion

EMNLP 2018 https://arxiv.org/pdf/1809.03202.pdf link prediction in knowledge graphs static multi-relational data? hold for a time! LSTM: a sequence for a predicate (with timestamp) 1 Introduction triplet completion: s, p, ?; ?, p, o time info s, p, o,

[paper reading][EMNLP 2017] A Structured Learning Approach to Temporal Relation Extraction

目录1 Introduction2 Background EMNLP 2017 https://arxiv.org/pdf/1906.04943.pdf learn temporal relations in natural language text 1 Introduction timex extraction: easy temporal relation: hard directed temporal graph nodes represent temporal entities edge

论文笔记 EMNLP 2019|Cross-lingual Structure Transfer for Relation and Event Extraction

文章目录 1 简介1.1 动机1.2 创新 2 背景知识3 方法4 实验5 总结 1 简介 论文题目:Cross-lingual Structure Transfer for Relation and Event Extraction 论文来源:EMNLP 2019 论文链接: 代码链接: 1.1 动机 1.2 创新 2 背景知识 3 方法 4 实验 5 总结

EMNLP 2020 | Facebook稠密向量召回方案

0. 背景 机构: Facebook AI、华盛顿大学、普林斯顿大学 作者: Vladimir Karpukhin, Barlas Oğuz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, Wen-tau Yih 论文地址: https://arxiv.org/abs/2004.04906 收录会议: EMNLP 2020 论文代码: https://github.co

跨语言检索的QA(google research EMNLP 2020)

LAReQA: Language-Agnostic Answer Retrieval from a Multilingual Pool trained models are available at https://tfhub.dev/s?q=lareqa. dataset and evaluation code are available at https://github.com/google-research-datasets/lareqa. 提出一个Language-Agno