其他分享
首页 > 其他分享> > 【数据分析-学术前沿趋势分析】 Task2 论文作者统计

【数据分析-学术前沿趋势分析】 Task2 论文作者统计

作者:互联网

Task2 论文作者统计


Datawhale一月份的组队学习~
关键词:数据分析、爬虫、文本分析
开源地址: https://github.com/datawhalechina/team-learning-data-mining/tree/master/AcademicTrends


1. 任务说明


2. 数据处理步骤

在原始arxiv数据集中论文作者authors字段是一个字符串格式,其中每个作者使用逗号进行分隔分,所以我们我们首先需要完成以下步骤:

具体操作可以参考以下例子:

C. Bal\\'azs, E. L. Berger, P. M. Nadolsky, C.-P. Yuan

# 切分为,其中\\为转义符

C. Ba'lazs
E. L. Berger
P. M. Nadolsky
C.-P. Yuan

3. 字符串处理

在Python中字符串是最常用的数据类型,可以使用引号('或")来创建字符串。Python中所有的字符都使用字符串存储,可以使用方括号来截取字符串,如下实例:

var1='Hello DataWhale!'
var2='Python Everwhere'

print('var1[-10:]',var1[-10:])
print("var2[0:7]: ", var2[0:7])

在这里插入图片描述

同时在Python中还支持转义符:

(在行尾时)续行符
\反斜杠符号
单引号
"双引号
\n换行
\t横向制表符
\r回车

Python中还内置了很多内置函数,非常方便使用:

方法描述
string.capitalize()把字符串的第一个字符大写
string.isalpha()如果 string 至少有一个字符并且所有字符都是字母则返回 True,否则返回 False
string.title()返回"标题化"的 string,就是说所有单词都是以大写开始,其余字母均为小写(见 istitle())
string.upper()转换 string 中的小写字母为大写

4. 具体代码实现以及讲解

4.1 数据读取

#导入所需要的包
import seaborn as sns
from bs4 import BeautifulSoup #用于爬取arxiv数据
import re #用于正则表达式,匹配字符串的模式
import requests #用于网络连接,发送网络请求,使用域名获取对应信息
import json 
import pandas as pd 
import matplotlib.pyplot as plt 
def readArxivFile(path, columns=['id', 'submitter', 'authors', 'title', 'comments', 'journal-ref', 'doi',
       'report-no', 'categories', 'license', 'abstract', 'versions',
       'update_date', 'authors_parsed'], count=None):
    '''
    定义读取文件的函数
        path: 文件路径
        columns: 需要选择的列
        count: 读取行数
    '''
    
    data  = []
    with open(path, 'r') as f: 
        for idx, line in enumerate(f): 
            if idx == count:
                break
                
            d = json.loads(line)
            d = {col : d[col] for col in columns}
            data.append(d)

    data = pd.DataFrame(data)
    return data

data = readArxivFile('./archive/arxiv-metadata-oai-snapshot.json', 
                     ['id', 'authors', 'categories', 'authors_parsed'],
                    100000)

data.head()

在这里插入图片描述


4.2 数据统计

主要实现以下三方面的内容:

为了节约时间,只选取部分类别的论文进行处理

#选择类别为cs.CV下面的论文
data2 = data[data['categories'].apply(lambda x: 'cs.CV' in x)]
data2

在这里插入图片描述
具体查看下['authors_parsed']列的情况

data2['authors_parsed'].sample(5)

在这里插入图片描述

# 拼接所有作者
all_authors = sum(data2['authors_parsed'], [])
print(len(all_authors))
all_authors

在这里插入图片描述

处理完成后all_authors变成了所有一个list,其中每个元素为一个作者的姓名。我们首先来完成姓名频率的统计。

#拼接所有的作者
#join用法https://www.runoob.com/python/att-string-join.html
authors_names=[' '.join(x) for x in all_authors] #按照空格拼接在一起
authors_names=pd.DataFrame(authors_names)
authors_names

在这里插入图片描述

# 根据作者频率绘制直方图
plt.figure(figsize=(10, 6))
authors_names[0].value_counts().head(10).plot(kind='barh')

# 修改图配置
names = authors_names[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')

在这里插入图片描述

接下来统计姓名姓,也就是authors_parsed字段中作者第一个单词:

authors_lastnames=[x[0] for x in all_authors]
authors_lastnames=pd.DataFrame(authors_lastnames)

plt.figure(figsize=(10, 6))
authors_lastnames[0].value_counts().head(10).plot(kind='barh')

names = authors_lastnames[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')

在这里插入图片描述

authors_lastnames=[x[0] for x in all_authors]
authors_lastnames=pd.DataFrame(authors_lastnames)
authors_firstword=authors_lastnames
authors_firstword[0]=authors_firstword[0].apply(lambda x:x[0])

plt.figure(figsize=(10, 6))
authors_firstword[0].value_counts().head(10).plot(kind='barh')

names = authors_firstword[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')

在这里插入图片描述

标签:数据分析,10,Task2,plt,names,authors,lastnames,data,学术前沿
来源: https://blog.csdn.net/a8689756/article/details/112726414