最近不是世界杯嘛,但是太忙了实在没时间看,于是为了凑热闹,用Python把本次球员信息都获取了一遍,看不了比赛,那就多了解了解嘛~
于是靠着分析的情况,大胆的买了一波小日子赢,实事证明我的判断没有错,甚至有理有据~
软件&模块
本次使用的环境是 python 3.8
编辑器是 pycharm 2021
第三方模块是 requests ,第三方模块需要手动安装,我们win+r输入cmd 打开命令提示符窗口 ,输入pip install requests 即可安装。
爬虫原理是模拟成客户端向服务器发送网络请求。
那么我们如何来实现今天的案例呢?
大致分为一下几步,
1.分析数据来源
2、实现代码:
import requests # 发送网络请求的 导入别人写好的功能
import csv # 写入数据的 内置模块
# 伪装
headers = {
'Cookie': 'UOR=www.****.com.cn,; SINAGLOBAL=175.0.61.77_1657884424.966721; U_TRS1=0000004e.e788d5bf.6321e608.840542e4; Apache=175.0.61.120_1669203295.444472; ULV=1669203299775:10:6:4:175.0.61.120_1669203295.444472:1669203296517',
'Host': 'api.sports.sina.com.cn',
'Referer': 'http://****.cn/',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'
}
url = 'http://*****.cn/?p=sports&s=sport_client&a=index&_sport_t_=football&_sport_s_=opta&_sport_a_=teamStatics&show_players=1&type=108&season=2017&id=960&dpc=1'
response = requests.get(url=url, headers=headers)
json_data = response.json()
players = json_data['result']['data']['players']
f = open('日本球队.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.writer(f)
csv_writer.writerow(['player_name_cn', 'count', 'mins_played', 'goal_assist', 'goals', 'total_pass', 'accurate_pass'])
for player in players:
player_name_cn = player['player_name_cn'] # 球员名称
count = player['count'] # 场次
mins_played = player['mins_played'] # 出场时间
goal_assist = player['goal_assist'] # 助攻
goals = player['goals'] # 进球
total_pass = player['total_pass'] # 传球
accurate_pass = player['accurate_pass'] # 传准
csv_writer.writerow([player_name_cn, count, mins_played, goal_assist, goals, total_pass, accurate_pass])
就冲小日子的数据,虽然我看他们不顺眼,但是我还是买了他们~
我准备了这些视频,PDF电子书籍,以及本文源代码!给大家直接在文末名片自取即可~
当然,本文仅供参考,娱乐为主,大家也别上头~
好了,今天的分享就到这里了,咱们下次见!