python爬虫——爬取大学排名信息

1. 结果图
python爬虫——爬取大学排名信息_第1张图片
2. 这次爬取的网址请点击传送门
传送门
3. 在该网址选择查院校,其他都是默认
python爬虫——爬取大学排名信息_第2张图片
4. 这次爬取的信息主要是下图红框的内容,在浏览器开发者中,点击XHR就可以发现这个接口,接口的内容都有我们需要的信息。
python爬虫——爬取大学排名信息_第3张图片
5. 先构建请求头,请求头直接复制过来了
python爬虫——爬取大学排名信息_第4张图片

# 构建请求头
headers = {
    'Accept': '*/*',
    'Accept-Encoding': 'gzip, deflate',
    'Accept-Language': 'zh-CN,zh;q=0.9',
    'Connection': 'keep-alive',
    'contentType': 'application/x-www-form-urlencoded; charset=utf-8',
    'Cookie': 'cfm-major=true',
    'Host': 'gaokao.afanti100.com',
    'media': 'PC',
    'Referer': 'http://gaokao.afanti100.com/university.html',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',
    'X-Requested-With': 'XMLHttpRequest',
}

6. 接下来先请求这条url,通过format方法实现对url的拼接,以此达到翻页的效果,通过查看接口的内容,发现是json格式,大学的信息在data键中的university_lst中,因此我们需要取出这个键,其中university_lst是列表。
python爬虫——爬取大学排名信息_第5张图片

def get_index():

    page = 1
    while True:
        if page > 188:
            break
        url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \
              '&university_type=0&location_province=0&speciality=0&page={}'.format(page)
        # page自增一实现翻页
        page += 1
        # 请求url并返回的是json格式
        resp = requests.get(url, headers=headers).json()
        # 取出大学所在的键值对
        university_lsts = resp.get('data').get('university_lst')
        if university_lsts:
            get_info(university_lsts)
        else:
            continue

7. 通过上一步取出键值对之后,就可以遍历列表取出我们想要的信息。

def get_info(university_lsts):
    # 判断列表是否不为空
    if university_lsts:
        # 遍历列表取出每个大学的信息
        for university_lst in university_lsts:
            # 声明一个字典存储数据
            data_dict = {}

            # 大学名字
            data_dict['name'] = university_lst.get('name')
            # 大学排名
            data_dict['ranking'] = university_lst.get('ranking')
            # 大学标签
            data_dict['tag_lst'] = university_lst.get('tag_lst')
            # 大学重点学科
            data_dict['key_major_count'] = university_lst.get('key_major_count')
            # 硕士点数
            data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')
            # 博士点数
            data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')
            # 是否211
            data_dict['is_211'] = university_lst.get('is_211')
            # 是否985
            data_dict['is_985'] = university_lst.get('is_985')
            # 哪个省
            data_dict['location_province'] = university_lst.get('location_province')
            # 哪个城市
            data_dict['location_city'] = university_lst.get('location_city')
            # 大学类型
            data_dict['university_type'] = university_lst.get('university_type')

            data_list.append(data_dict)
            print(data_dict)

8. 最后将信息存储为文件

def save_file():
    # 将数据存储为json文件
    with open('大学排名信息.json', 'w', encoding='utf-8') as f:
        json.dump(data_list, f, ensure_ascii=False, indent=4)
    print('json文件保存成功')

    # 将数据存储为csv文件
    # 表头
    title = data_list[0].keys()
    with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:
        writer = csv.DictWriter(f, title)
        # 写入表头
        writer.writeheader()
        # 写入数据
        writer.writerows(data_list)
    print('csv文件保存成功')

9. 这次爬虫很简单,新手可以用来练练手,全部代码附上

import requests
import json
import csv


# 构建请求头
headers = {
    'Accept': '*/*',
    'Accept-Encoding': 'gzip, deflate',
    'Accept-Language': 'zh-CN,zh;q=0.9',
    'Connection': 'keep-alive',
    'contentType': 'application/x-www-form-urlencoded; charset=utf-8',
    'Cookie': 'cfm-major=true',
    'Host': 'gaokao.afanti100.com',
    'media': 'PC',
    'Referer': 'http://gaokao.afanti100.com/university.html',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',
    'X-Requested-With': 'XMLHttpRequest',
}


# 声明一个列表存储字典
data_list = []


def get_index():

    page = 1
    while True:
        if page > 188:
            break
        url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \
              '&university_type=0&location_province=0&speciality=0&page={}'.format(page)
        # page自增一实现翻页
        page += 1
        # 请求url并返回的是json格式
        resp = requests.get(url, headers=headers).json()
        # 取出大学所在的键值对
        university_lsts = resp.get('data').get('university_lst')
        if university_lsts:
            get_info(university_lsts)
        else:
            continue


def get_info(university_lsts):
    # 判断列表是否不为空
    if university_lsts:
        # 遍历列表取出每个大学的信息
        for university_lst in university_lsts:
            # 声明一个字典存储数据
            data_dict = {}

            # 大学名字
            data_dict['name'] = university_lst.get('name')
            # 大学排名
            data_dict['ranking'] = university_lst.get('ranking')
            # 大学标签
            data_dict['tag_lst'] = university_lst.get('tag_lst')
            # 大学重点学科
            data_dict['key_major_count'] = university_lst.get('key_major_count')
            # 硕士点数
            data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')
            # 博士点数
            data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')
            # 是否211
            data_dict['is_211'] = university_lst.get('is_211')
            # 是否985
            data_dict['is_985'] = university_lst.get('is_985')
            # 哪个省
            data_dict['location_province'] = university_lst.get('location_province')
            # 哪个城市
            data_dict['location_city'] = university_lst.get('location_city')
            # 大学类型
            data_dict['university_type'] = university_lst.get('university_type')

            data_list.append(data_dict)
            print(data_dict)


def save_file():
    # 将数据存储为json文件
    with open('大学排名信息.json', 'w', encoding='utf-8') as f:
        json.dump(data_list, f, ensure_ascii=False, indent=4)
    print('json文件保存成功')

    # 将数据存储为csv文件
    # 表头
    title = data_list[0].keys()
    with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:
        writer = csv.DictWriter(f, title)
        # 写入表头
        writer.writeheader()
        # 写入数据
        writer.writerows(data_list)
    print('csv文件保存成功')


def main():
    get_index()
    save_file()


if __name__ == '__main__':
    main()

你可能感兴趣的:(python爬虫)