数据库
首页 > 数据库> > 什么是解析文章内容的Wikipedia XML转储并填充MySQL数据库的快速方法?

什么是解析文章内容的Wikipedia XML转储并填充MySQL数据库的快速方法?

作者:互联网

对于某些文本挖掘应用程序,我需要识别英语维基百科中每篇文章的每个单词的频率,并使用该数据填充MySQL数据库. This official page建议在转储上使用mwdumper或xml2sql,但它们并不直接用于我的目的(除非有人可以解释它们如何).

另一方面,使用WikiExtractor,用于Python的MySQLdb和本地MySQL服务器,可以让我完全按照自己的意愿行事,但是要解析整个转储需要一个月的时间很慢.对修改后的WikiExtractor程序进行概要分析表明,大多数运行时都花费在它的嵌套正则表达式搜索和我的数据库插入中.

理想情况下,我不希望处理文章花费超过几天.我怎样才能有效地做到这一点?

解决方法:

Perl包MediaWiki::DumpFile非常适合解析.要加载转储并读取每个页面,您只需要几行代码.

要进行简单的字频计算,您可以使用sample code in Perl FAQText::Ngrams软件包进行更智能的操作.

将结果添加到数据库取决于您,因为您正在开发应用程序,并且您应该知道需求.

标签:mysql,mediawiki,wikipedia,text-mining
来源: https://codeday.me/bug/20190629/1330391.html