首页 > TAG信息列表 > stanford-nlp

java-使用标准corenlp包获取corefrences

我正在尝试在文本中获得共指.我是corenlp包的新手.我尝试了下面的代码,该代码不起作用,但是我也可以使用其他方法. /* * To change this template, choose Tools | Templates * and open the template in the editor. */ package corenlp; import edu.stanford.nlp.ling.CoreA

斯坦福大学对Python NLTK的通用依赖关系

我有什么办法可以使用python或nltk获得Universal依赖项吗?我只能生成解析树. 例: 输入句子: My dog also likes eating sausage. 输出: Universal dependencies nmod:poss(dog-2, My-1) nsubj(likes-4, dog-2) advmod(likes-4, also-3) root(ROOT-0, likes-4) xcomp(likes-4, eatin

如何在Python中解析时间表达式(特别是时间范围)?

我有一个包含3个组件的NLP任务.我尝试了几种方法(最后提到),但无法获得良好的结果. >在语句中检测时间表达 >然后将其分类为时间戳,时间触发或时间段.>使每个表达式等于其DateTime等价物. 例: 以参考时间为2000小时,2015年7月20日,星期四 >时间戳: 我想从现在开始20分钟预定出租车 A

运行NLTK StanfordParser时Java命令失败

已编辑 感谢Alvas的回答.我刚刚了解到以下问题是由“最新” NLTK引起的,因为最新的StanfordNLP 15-12-09比以前的版本需要更多的依赖项.如Alvas所建议的,此问题的确切解决方案是在此链接https://github.com/nltk/nltk/issues/1239内. StackOverflow识别出与该帖子Stanford Parser a

java-如何使用OpenNLP创建自定义模型?

我正在尝试使用OpenNLP Java API从文档中提取名称,技能之类的实体.但它没有提取专有名称.我正在使用opennlp sourceforge link可用的模型 这是一段Java代码- public class tikaOpenIntro { public static void main(String[] args) throws IOException, SAXException,

java-斯坦福大学nlp:解析树

我有这样一句话:我的狗也喜欢吃香肠. 我得到以下解析树: (ROOT (S (NP (PRP$My) (NN dog)) (ADVP (RB also)) (VP (VBZ likes) (S (VP (VBG eating) (NP (NN sausage))))) (. .))) 我如何只获得语法类别,即:NP,ADVP,VP等? 我尝试使用以下代码: Tree

NLTK中的Stanford NER Tagger

我正在尝试在Python中导入斯坦福命名实体识别器.这已经内置在NLTK软件包中.但是,我的以下代码无法正常工作: from nltk.tag.stanford import NERTagger Traceback (most recent call last): File "<stdin>", line 1, in <module> ImportError: cannot import name NERTagger

Stanford CoreNLP提供NullPointerException

我正在努力让我了解Stanford CoreNLP API.我希望得到一个简单的句子,使用以下代码将其标记化: Properties props = new Properties(); props.put("annotators", "tokenize"); StanfordCoreNLP pipeline = new StanfordCoreNLP(props); // read some text in the t

NLTK中的Stanford NER无法正确标记多个句子-Python

我有一个函数,可以使用Stanford NER在给定的文本正文中返回命名实体. def get_named_entities(text): load_ner_files() print text[:100] # to show that the text is fine text_split = text.split() print text_split # to show the split is working

java – 显示斯坦福NER的置信度

我正在使用斯坦福NER CRFC分类器从新闻文章中提取命名实体,为了实现主动学习,我想知道每个标记实体的类的置信度分数. 显示的例子: LOCATION(0.20) PERSON(0.10) ORGANIZATION(0.60) MISC(0.10) 这是我从文本中提取命名实体的代码: AbstractSequenceClassifier<CoreLabel> classi

python – 使用NLTK简化法语POS标签集

如何简化斯坦福法国POS标签器返回的部分语音标签?将英文句子读入NLTK相当容易,找到每个单词的词性,然后使用map_tag()来简化标签集: #!/usr/bin/python # -*- coding: utf-8 -*- import os from nltk.tag.stanford import POSTagger from nltk.tokenize import word_tokenize from

如何获取stanford corenlp的文本的xml输出

我一直在阅读API和文档试图找到答案,但还没有接近解决问题. 我想取一堆句子并将输出作为所有句子的XML输出: <token id="1"> <word>That</word> <lemma>that</lemma> <CharacterOffsetBegin>0</CharacterOffsetBegin> <

java – 用于获取解析树的更快的Stanford CoreNLP替代品?

我喜欢Stanford CoreNLP,现在它对我的NLP需求非常准确.问题在于分析大量文本(假设数百万句话)需要数天时间. 是否存在牺牲一些准确性以提高效率的替代Java实现(理想情况下)提供相同的API?解决方法:如果您使用的是PCFG或因子模型,您可以考虑切换到自3.2版以来可用的新RNN models –

java – 如何从解析的文本中提取名词短语

我用constituency解析器解析了一个文本,将结果复制到如下文本文件中: (ROOT (S (NP (NN Yesterday)) (, ,) (NP (PRP we)) (VP (VBD went) (PP (TO to).... (ROOT (FRAG (SBAR (SBAR (IN While) (S (NP (PRP I)) (VP (VBD was) (NP (NP (EX... (ROOT (S (NP (NN Yesterday)) (, ,)

从Python NLTK调用斯坦福NER崩溃

我正在尝试使用斯坦福NER标记命名实体.我的代码非常简单: from nltk.tag import StanfordNERTagger st = StanfordNERTagger('stanford-ner/classifiers/english.all.3class.distsim.crf.ser.gz', 'stanford-ner/stanford-ner.jar',

Python NLTK代码片段,用于使用特征频率训练分类器(朴素贝叶斯)

我想知道是否有人可以通过代码片段来帮助我,该代码片段演示了如何使用特征频率方法而不是特征存在来训练朴素贝叶斯分类器. 我认为下面第6章link text中所示的是指使用Feature Presence(FP)创建一个特征集 – def document_features(document): document_words = set(docume

java – 如何获取树的Stanford Dependencies“nsubj”的主题值?

这是我的代码的一部分: String sentence="My dog also likes eating sausage."; LexicalizedParser lp = new LexicalizedParser("englishPCFG.ser.gz"); TokenizerFactory tf = PTBTokenizer.factory(false, new WordTokenFactory()); TreePrint tp = new TreePr

java – 斯坦福NLP分类器的示例

我正在尝试学习斯坦福NLP分类器,并希望解决文档分类问题.任何人都可以建议我找到一个有效的例子吗?我也在查看Open NLP库,并且能够找到许多工作示例,例如 http://tharindu-rusira.blogspot.com/2013/12/opennlp-text-classifier.html 因此,正如我们在这里看到的,很容易弄清楚发生了

java – Stanford NLP – 处理文件列表时OpenIE内存不足

我正在尝试使用Stanford CoreNLP中的OpenIE工具从多个文件中提取信息,当几个文件传递给输入时,它会产生内存不足错误,而不是只传递一个. All files have been queued; awaiting termination... java.lang.OutOfMemoryError: GC overhead limit exceeded at edu.stanford.nlp.graph

java – 通过斯坦福解析器提取所有名词,形容词形式和文本

我试图通过斯坦福解析器从给定的文本中提取所有名词和形容词. 我目前的尝试是在Tree-Object的getChildrenAsList()中使用模式匹配来定位如下内容: (NN paper), (NN algorithm), (NN information), ... 并将它们保存在一个数组中. 输入句子: In this paper we present an al

java – Stanford Parser内存不足

我试图使用python代码在Ubuntu中运行Stanford解析器.我的文本文件是500 Mb,我试图解析.我有一个32GB的RAM.我正在增加JVM大小,但我不知道它是否实际上是否正在增加,因为每次我收到此错误.请帮帮我 WARNING!! OUT OF MEMORY! THERE WAS NOT ENOUGH *** *** MEMORY TO RUN ALL PAR

java – 从解析树中获取某些节点

我正在研究一个涉及通过Hobbs算法进行回指解析的项目.我使用Stanford解析器解析了我的文本,现在我想操纵节点以实现我的算法. 目前,我不明白如何: >根据其POS标签访问节点(例如,我需要以代词开头 – 我如何获得所有代词?). >使用访客.我有点像Java的菜鸟,但在C中我需要实现一个访问者

java – Stanford Dependency Parser – 如何获得跨度?

我正在使用Java中的Stanford库进行依赖解析. 有没有办法在我的原始依赖字符串中找回索引?我试图调用getSpans()方法,但它为每个标记返回null: LexicalizedParser lp = LexicalizedParser.loadModel( "edu/stanford/nlp/models/lexparser/englishPCFG.ser.gz", "-max

如何使用Stanford TokensRegex?

我正在尝试使用Stanford TokensRegex.但是,我在匹配器的行中遇到错误(请参阅注释),它表示().请你尽力帮助我.以下是我的代码: String file = "A store has many branches. A manager may manage at most 2 branches."; Properties props = new Properties(); props.put("annota

斯坦福情绪分析得分java

我使用Stanford core NLP库进行情绪分析.下面的代码返回一个示例的类,但我怎样才能获得分数?例如-0.3表示负面等 private int getScore(String line) { boolean isrun = false; StanfordCoreNLP pipeline = null; if(!isrun){ Properties props = getPropertie