在原始arxiv数据集中论文作者authors
字段是一个字符串格式,其中每个作者使用逗号进行分隔分,所以我们我们首先需要完成以下步骤:
具体操作可以参考以下例子:
Python split()方法:https://www.runoob.com/python/att-string-split.html
#原始数据
s='C. Bal\'azs,E. L. Berger,P. M. Nadolsky,C.-P. Yuan'
#按照“,”进行切分
for i in s.split(','):
print(i)
Python 字符串https://www.runoob.com/python/python-strings.html
在Python中字符串是最常用的数据类型,可以使用引号('或")来创建字符串。Python中所有的字符都使用字符串存储,可以使用方括号来截取字符串,如下实例:
var1='Hello DataWhale!'
var2='Python Everwhere'
print('var1[-10:]',var1[-10:])
print("var2[0:7]: ", var2[0:7])
同时在Python中还支持转义符:
(在行尾时) | 续行符 |
---|---|
\ | 反斜杠符号 |
’ | 单引号 |
" | 双引号 |
\n | 换行 |
\t | 横向制表符 |
\r | 回车 |
Python中还内置了很多内置函数,非常方便使用:
方法 | 描述 |
---|---|
string.capitalize() |
把字符串的第一个字符大写 |
string.isalpha() |
如果 string 至少有一个字符并且所有字符都是字母则返回 True,否则返回 False |
string.title() |
返回"标题化"的 string,就是说所有单词都是以大写开始,其余字母均为小写(见 istitle()) |
string.upper() |
转换 string 中的小写字母为大写 |
var1='Hello DataWhale!'
print(var1.capitalize())
print(var1.isalpha())
print(var1.title())
print(var1.upper())
#导入所需要的包
import seaborn as sns
from bs4 import BeautifulSoup #用于爬取arxiv数据
import re #用于正则表达式,匹配字符串的模式
import requests #用于网络连接,发送网络请求,使用域名获取对应信息
import json
import pandas as pd
import matplotlib.pyplot as plt
#读入数据
data=[]
#使用with语句读入
##使用with语句读入的优势:(1)自动关闭文件句柄(2)自动显示(处理)文件读取异常
###https://blog.csdn.net/qq_38684504/article/details/86547340
with open('./archive/arxiv-metadata-oai-snapshot.json','r') as f:
for idx,line in enumerate(f):
#读取前一百行,如果读取全部数据需要8G内存
if idx>100:
break
data.append(json.loads(line))
#将data转换为pandas格式,方便进行pandas分析
data=pd.DataFrame(data)
print(data.shape)
data.columns
def readArxivFile(path, columns=['id', 'submitter', 'authors', 'title', 'comments', 'journal-ref', 'doi',
'report-no', 'categories', 'license', 'abstract', 'versions',
'update_date', 'authors_parsed'], count=None):
'''
定义读取文件的函数
path: 文件路径
columns: 需要选择的列
count: 读取行数
'''
data = []
with open(path, 'r') as f:
for idx, line in enumerate(f):
if idx == count:
break
d = json.loads(line)
d = {
col : d[col] for col in columns}
data.append(d)
data = pd.DataFrame(data)
return data
data = readArxivFile('./archive/arxiv-metadata-oai-snapshot.json',
['id', 'authors', 'categories', 'authors_parsed'],
100000)
data.head()
主要实现以下三方面的内容:
为了节约时间,只选取部分类别的论文进行处理
#选择类别为cs.CV下面的论文
data2 = data[data['categories'].apply(lambda x: 'cs.CV' in x)]
data2
data2['authors_parsed'].sample(5)
# 拼接所有作者
all_authors = sum(data2['authors_parsed'], [])
print(len(all_authors))
all_authors
处理完成后all_authors
变成了所有一个list,其中每个元素为一个作者的姓名。我们首先来完成姓名频率的统计。
Python join()方法:https://www.cnblogs.com/ling-yu/p/9167065.html
#拼接所有的作者
#join用法https://www.runoob.com/python/att-string-join.html
authors_names=[' '.join(x) for x in all_authors] #按照空格拼接在一起
authors_names=pd.DataFrame(authors_names)
authors_names
# 根据作者频率绘制直方图
plt.figure(figsize=(10, 6))
authors_names[0].value_counts().head(10).plot(kind='barh')
# 修改图配置
names = authors_names[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')
接下来统计姓名姓,也就是authors_parsed
字段中作者第一个单词:
authors_lastnames=[x[0] for x in all_authors]
authors_lastnames=pd.DataFrame(authors_lastnames)
plt.figure(figsize=(10, 6))
authors_lastnames[0].value_counts().head(10).plot(kind='barh')
names = authors_lastnames[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')
authors_lastnames=[x[0] for x in all_authors]
authors_lastnames=pd.DataFrame(authors_lastnames)
authors_firstword=authors_lastnames
authors_firstword[0]=authors_firstword[0].apply(lambda x:x[0])
plt.figure(figsize=(10, 6))
authors_firstword[0].value_counts().head(10).plot(kind='barh')
names = authors_firstword[0].value_counts().index.values[:10]
_ = plt.yticks(range(0, len(names)), names)
plt.ylabel('Author')
plt.xlabel('Count')