利用python爬取世界名牌大学排名数据_python爬虫——爬取大学排名信息

2. 这次爬取的网址请搜索“阿凡题”(纯技术讨论)

“阿凡题”(纯技术讨论

)

3. 在该网址选择查院校,其他都是默认

4. 这次爬取的信息主要是下图红框的内容,在浏览器开发者中,点击XHR就可以发现这个接口,接口的内容都有我们需要的信息。

5. 先构建请求头,请求头直接复制过来了

# 构建请求头

headers = {

'Accept': '*/*',

'Accept-Encoding': 'gzip, deflate',

'Accept-Language': 'zh-CN,zh;q=0.9',

'Connection': 'keep-alive',

'contentType': 'application/x-www-form-urlencoded; charset=utf-8',

'Cookie': 'cfm-major=true',

'Host': 'gaokao.afanti100.com',

'media': 'PC',

'Referer': 'http://gaokao.afanti100.com/university.html',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',

'X-Requested-With': 'XMLHttpRequest',

}

6. 接下来先请求这条url,通过format方法实现对url的拼接,以此达到翻页的效果,通过查看接口的内容,发现是json格式,大学的信息在data键中的university_lst中,因此我们需要取出这个键,其中university_lst是列表。

def get_index():

page = 1

while True:

if page > 188:

break

url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \

'&university_type=0&location_province=0&speciality=0&page={}'.format(page)

# page自增一实现翻页

page += 1

# 请求url并返回的是json格式

resp = requests.get(url, headers=headers).json()

# 取出大学所在的键值对

university_lsts = resp.get('data').get('university_lst')

if university_lsts:

get_info(university_lsts)

else:

continue

7. 通过上一步取出键值对之后,就可以遍历列表取出我们想要的信息。

def get_info(university_lsts):

# 判断列表是否不为空

if university_lsts:

# 遍历列表取出每个大学的信息

for university_lst in university_lsts:

# 声明一个字典存储数据

data_dict = {}

# 大学名字

data_dict['name'] = university_lst.get('name')

# 大学排名

data_dict['ranking'] = university_lst.get('ranking')

# 大学标签

data_dict['tag_lst'] = university_lst.get('tag_lst')

# 大学重点学科

data_dict['key_major_count'] = university_lst.get('key_major_count')

# 硕士点数

data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')

# 博士点数

data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')

# 是否211

data_dict['is_211'] = university_lst.get('is_211')

# 是否985

data_dict['is_985'] = university_lst.get('is_985')

# 哪个省

data_dict['location_province'] = university_lst.get('location_province')

# 哪个城市

data_dict['location_city'] = university_lst.get('location_city')

# 大学类型

data_dict['university_type'] = university_lst.get('university_type')

data_list.append(data_dict)

print(data_dict)

8. 最后将信息存储为文件

def save_file():

# 将数据存储为json文件

with open('大学排名信息.json', 'w', encoding='utf-8') as f:

json.dump(data_list, f, ensure_ascii=False, indent=4)

print('json文件保存成功')

# 将数据存储为csv文件

# 表头

title = data_list[0].keys()

with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:

writer = csv.DictWriter(f, title)

# 写入表头

writer.writeheader()

# 写入数据

writer.writerows(data_list)

print('csv文件保存成功')

9. 这次爬虫很简单,新手可以用来练练手,全部代码附上

import requests

import json

import csv

# 构建请求头

headers = {

'Accept': '*/*',

'Accept-Encoding': 'gzip, deflate',

'Accept-Language': 'zh-CN,zh;q=0.9',

'Connection': 'keep-alive',

'contentType': 'application/x-www-form-urlencoded; charset=utf-8',

'Cookie': 'cfm-major=true',

'Host': 'gaokao.afanti100.com',

'media': 'PC',

'Referer': 'http://gaokao.afanti100.com/university.html',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',

'X-Requested-With': 'XMLHttpRequest',

}

# 声明一个列表存储字典

data_list = []

def get_index():

page = 1

while True:

if page > 188:

break

url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \

'&university_type=0&location_province=0&speciality=0&page={}'.format(page)

# page自增一实现翻页

page += 1

# 请求url并返回的是json格式

resp = requests.get(url, headers=headers).json()

# 取出大学所在的键值对

university_lsts = resp.get('data').get('university_lst')

if university_lsts:

get_info(university_lsts)

else:

continue

def get_info(university_lsts):

# 判断列表是否不为空

if university_lsts:

# 遍历列表取出每个大学的信息

for university_lst in university_lsts:

# 声明一个字典存储数据

data_dict = {}

# 大学名字

data_dict['name'] = university_lst.get('name')

# 大学排名

data_dict['ranking'] = university_lst.get('ranking')

# 大学标签

data_dict['tag_lst'] = university_lst.get('tag_lst')

# 大学重点学科

data_dict['key_major_count'] = university_lst.get('key_major_count')

# 硕士点数

data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')

# 博士点数

data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')

# 是否211

data_dict['is_211'] = university_lst.get('is_211')

# 是否985

data_dict['is_985'] = university_lst.get('is_985')

# 哪个省

data_dict['location_province'] = university_lst.get('location_province')

# 哪个城市

data_dict['location_city'] = university_lst.get('location_city')

# 大学类型

data_dict['university_type'] = university_lst.get('university_type')

data_list.append(data_dict)

print(data_dict)

def save_file():

# 将数据存储为json文件

with open('大学排名信息.json', 'w', encoding='utf-8') as f:

json.dump(data_list, f, ensure_ascii=False, indent=4)

print('json文件保存成功')

# 将数据存储为csv文件

# 表头

title = data_list[0].keys()

with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:

writer = csv.DictWriter(f, title)

# 写入表头

writer.writeheader()

# 写入数据

writer.writerows(data_list)

print('csv文件保存成功')

def main():

get_index()

save_file()

if __name__ == '__main__':

main()

你可能感兴趣的:(利用python爬取世界名牌大学排名数据_python爬虫——爬取大学排名信息)