python学得好牢饭_英雄联盟LPL比赛数据可视化详细教程,可视化的魅力,你值得拥有!!!...

LPL比赛数据可视化

完成这个项目,我感觉我已经被掏空了,我几乎用尽了我会的所有知识

html+css+javascript+jQuery+python+requests+numpy+mysql+pymysql+json+ajax+flask+echarts

在这个过程中,并不是那么顺利,遇到了很多坑,好在全部都已经解决

在整个页面全部功能运行成功的那一刻,我感觉幸福极了

下面我就带领大家实践一下,怎么从无到有

如果觉得涉及的知识太多,实践起来困难的同学.不要怕,我专门做了一期视频一分钟上手此项目,点我观看视频

需要用到的Python第三方库:flask,requests,pymysql,numpy

听说看着源码读文章绝配哦点我下载源码

点我直达可视化页面

(如果有违规,请管理我联系我,我第一时间进行处理,码字不易,谢谢)

绘制前端页面

整个页面可划分为10个盒子,使用HTML和CSS就可以把最基础的框架搭建出来,大家都是pink老师的学生,怎么在页面中写盒子我就不多说了,我主要讲解一下如何将echarts的图表插入到页面中来

什么是Echarts

Echarts官方网站

ECharts 是一个使用 JavaScript 实现的开源可视化库,涵盖各行业图表,满足各种需求

ECharts 遵循 Apache-2.0 开源协议,免费商用

ECharts 兼容当前绝大部分浏览器(IE8/9/10/11,Chrome,Firefox,Safari等)及兼容多种设备,可随时随地任性展示

第一个 ECharts 实例

第一个 ECharts 实例

// 基于准备好的dom,初始化echarts实例

var myChart = echarts.init(document.getElementById('main'));

// 指定图表的配置项和数据

var option = {

title: {

text: '第一个 ECharts 实例'

},

tooltip: {},

legend: {

data:['销量']

},

xAxis: {

data: ["衬衫","羊毛衫","雪纺衫","裤子","高跟鞋","袜子"]

},

yAxis: {},

series: [{

name: '销量',

type: 'bar',

data: [5, 20, 36, 10, 10, 20]

}]

};

// 使用刚指定的配置项和数据显示图表。

myChart.setOption(option);

使用Echarts的前提是你需要掌握HTML和Javascript的知识,毕竟Echarts是基于JS开发

观察源码不难发现,引入了外部文件[echarts.js] 如果不引入,程序将无法正常运行

基于准备好的div,绑定事件,初始化echarts实例

指定图表的配置项和数据,即可显示图表

大致流程:引入所需文件,在HTML定义好div盒子,在JS中绑定事件,初始化echarts实例,指定图表的配置项和数据

项目中的Echarts

1.引入所需文件

说明:上面第一个实例将echarts的代码写在了HTML文件中,而我为了后期维护起来方便,就分开写了,所以需要引入[js.js]文件,也就是我把关于echarts的代码都写在了[js.js]文件中

2.在HTML定义好div盒子

3.在JS中绑定事件,初始化echarts实例

4.指定图表的配置项和数据

代码过多,请到源码中查看

Echarts部分小总结

Echarts部分不是很难,直接到Echarts官网实例中找你想要的图表,然后复制代码,修改图表的配置和数据即可。我知道你肯定要问“代码中的一些属性我根本就不知道怎么去使用,怎么办嘛” 不要方,请到Echarts官网文档查看

项目中一共用了5种Echarts图表,使用的方法大同小异,我相信你可以举一反三

前端的页面绘制完毕后,你会发现一个问题。数据都写死的,而比赛数据几乎每天都在更新。每天去源码中修改对应的数据部分,过不了几天我想你肯定会厌倦。解决的方法肯定是有的,不光只是爬虫,还要向Echarts中插入数据(肯定不是手动插,而是机器插)。欲知后事如何,请往下看

爬取比赛数据

在讲解爬取数据之前,我还是想简单介绍一下什么是爬虫,回答大家对于爬虫的一些误解;假定大家都有一定的爬虫基础

什么是爬虫

爬虫,全称[ 网络爬虫(web crawler)]

百度百科的解释:网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

我所理解的爬虫,就是写程序获取指定网页中对自己有用的内容。其中包括文字,图片,音频,视频等

爬虫违法吗

我的回答是:违法但又合法

当我学会爬虫后,经常有一些和我玩得不错的朋友,跟我开玩笑说“爬虫写得好,牢饭吃得饱”之类的话,有些话听着还挺感动,结果并不是那样,比如“放心,我会来给你送牢饭的” /微笑

爬虫肯定是有风险的,那我们该如何避免呢

遵守 Robots 协议,但有没有 Robots 都不代表可以随便爬

限制你的爬虫行为,禁止近乎 DDOS 的请求频率,一旦造成服务器瘫痪,约等于网络攻击

对于明显反爬,或者正常情况不能到达的页面不能强行突破,否则是 Hacker 行为

最后,审视清楚自己爬的内容,以下是绝不能碰的红线(包括但不限于):

爬取用户个人数据非法牟利,包括模拟登录他人账号等

爬虫本身并不违法,而是看你使用的方式和目的,还要看是不是商业用途

各行各业从不差坏人,就在我们身边的网络上,已经密密麻麻爬满了各种网络爬虫,它们善恶不同,各怀心思。而越是每个人切身利益所在的地方,就越是布满了爬虫

数据从何而来

点我查看官网比赛数据

这个网站很特别,是一个动态的网站。如果说只是简单的使用requests获取页面的源码;虽然可以获取到数据,但是数据只有当前显示的一页。我最开始的想法是使用selenium这个可以操控浏览器的第三方库,进行数据的获取。代码写完后,获取数据没什么问题,就是速度太慢了,我也利用requests重新写了爬虫程序,速度提升非常明显(selenium用时20s,requests用时2s;两个程序还包括了将数据写入数据库的代码)

所有,selenium版本的爬虫我不会讲,主要还是讲解requests的版本

现在,我们来到官网,右键点击检查(如果是谷歌浏览器,按F12也可以),点击【Network】

按CTRL+R  刷新一下

在【name】下方找到【LOL_MATCH2_MATCH_TEAMRANK_LIST_134_7_8.js】,接着点击【Preview】,你就会看到这么一个界面

观察右边的数据,是不是就是战队的信息,只不过就是用json包装起来了而已,利用Python简单处理一下就能获取到你想要的数据。这些数据是用接口形式传输的,我们就可以直接爬取接口

点击旁边的【Headers】,复制【Request URL】后面的网址,我们来到Pycharm

我们打印一下请求的网址

import requests

def get_info(url):

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'}

response = requests.get(url=url,headers=headers)

return response.text

info = get_info('https://lpl.qq.com/web201612/data/LOL_MATCH2_MATCH_TEAMRANK_LIST_134_7_8.js')

print(info)

输出结果:

可以看出所有的战队信息已经获取成功,可是输出的内容是一个str(字符串)对象,我们需要使用json.loads()函数将str对象转换为dict(字典)对象。再使用字典和列表的方法就可以将想要的数据提取出来,并且存放到另外一个字典里面

import requests

import json

def get_info(url):

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'}

response = requests.get(url=url,headers=headers)

return response.text

info = get_info('https://lpl.qq.com/web201612/data/LOL_MATCH2_MATCH_TEAMRANK_LIST_134_7_8.js')

info = json.loads(info) #将str对象转换为dict(字典)对象

info_msg = info['msg']  #使用字典里面的键获取对于的值

#队名

teamName = [data['sTeamName'] for data in info_msg]

#出场次数

out_count = [data['iAppearancesFrequency'] for data in info_msg]

#胜场

win = [data['iWin'] for data in info_msg]

#败场

loss = [data['iLoss'] for data in info_msg]

#胜率

win_rate = [int(str((int(data['iWin'])/(int(data['iWin'])+int(data['iLoss'])))*100)[:2]) for data in info_msg]

#总击杀

kill_sum = [data['iKill'] for data in info_msg]

#总死亡

death_sum = [data['iDeath'] for data in info_msg]

#插眼

placed_eye = [int(float(data['sAveragingWardPlaced']))for data in info_msg]

#排眼

killed_eye = [int(float(data['sAveragingWardKilled']))for data in info_msg]

infos_list = [('队名',teamName),('出场次数',out_count),('胜场',win),

('败场',loss),('胜率',win_rate),('总击杀',kill_sum),

('总死亡',death_sum),('插眼',placed_eye),('排眼',killed_eye)]

info_dict = {key:value for key,value in infos_list}

print(info_dict)

输出结果:

在上面的程序当中,我运用列表推导式,字典推导式,很轻松的就拿到了想要数据。如果你还看不懂推导式,你可以到我这篇文章看看Python高级编程之列表推导式、字典推导式、集合推导式

其实,列表推导式还有更简单的写法,你可以去源码当中的【spider_api.py】文件中,第125行代码查看,117-122行注释的代码就是未优化的代码,留个小小的彩蛋,期待你去发现

聪明的你肯定已经发现了,这只是LPL战队的数据,那么队员和英雄的数据接口在哪里呢,刚才检查网页的时候,也没有发现.不要方,接着往下看 ::aru:tongue::

动态网站,其他数据接口在哪里

我们回到官方网站,点击【个人数据】

接着右键检查,找到【LOL_MATCH2_MATCH_PERSONALRANK_LIST_134_7_8.js】

获取数据的方法就和上面的类似了,我相信你可以举一反三

然而,获取英雄数据就不是那么顺利了

还是回到官网,点击【英雄数据】

还是右键检查,找到【LOL_MATCH2_MATCH_HERORANK_LIST_134_7_8.js】

你会惊奇的发现,为什么没有英雄的名字,而只有【iChampionId】和其他数据

于是,我们大胆的猜测,这些【iChampionId】会不会是英雄对应的ID呢?

寻找英雄名称

想查看英雄的名称,我脑袋里面第一个蹦出了的想法就是英雄联盟官网

老规矩,右键检查,找到【hero_list.js】,Amazing呀!

你仔细看,发现英雄名称前面有个【heroId】,会不会就和我们刚才看到的【iChampionId】相对应呢?

你不用去对比啦,我已经对比过了,就是相对应的,嘿嘿

虽然已经找到英雄名称,但是新的问题又来了

从两个接口获取到的数据,怎么保证【iChampionId】的英雄匹配到正确的名称

如何获取数据,我就不多嘴了,详细代码请查看源码.我这里主要讲解一下如何匹配正确的英雄名称

name = []

for i in hero_key_id_top60:

for j in hero_name_id_list:

if i == j :

#由于从lpl数据页面无法获取到英雄名称,只能获取到对应的id

#一层循环是pick率前60的英雄id,二层是所有英雄的的id

#通过if判断,将pick率前60的英雄写入到指定列表中

name.append(hero_name_list[hero_name_id_list.index(j)])

【hero_key_id_top60】中的内容:

【hero_name_id_list】中的内容:

【hero_name_list】中的内容:

【name 】中的内容:

数据已到位,下一步导入数据库

数据库交互

首先,请在你的电脑上面创建一个名为【lpl】的数据库,不需要建表,后面我会讲解如何用pymysql建表

导入数据

我们需要连接自己的数据库

代码如下,值得注意的是,passwd='你自己数据库的密码'

如果说看不懂代码,可以先去了解一下MySQL和pyMySQL

import pymysql

def mysql():

db = pymysql.connect(

host='localhost', user='root',

passwd='123456', db='lpl', charset='utf8')

cur = db.cursor()

return db,cur

数据库连接成功后,我们以【战队排行榜】为例

db, cur = mysql()

try:

# 是否存在这个表,若存在就删除,【战队排行榜前五】为表的名称

cur.execute("DROP TABLE IF EXISTS 战队排行榜前五")

# 创建表sql语句

set_sql_top5 = """

create table 战队排行榜前五(

战队名称 varchar(20),

出场次数 varchar(10),

胜率 varchar(10))

"""

# 执行sql语句

cur.execute(set_sql_top5)

db.commit() # 保存

# 准备写入数据的sql语句

save_sql_top5 = "INSERT INTO 战队排行榜前五 values(%s,%s,%s);"

# 写入数据库,参数一:写入的sql语句  参数二:数据,类型为列表,里面的元素类型是元组

cur.executemany(save_sql_top5,info_list)

db.commit()

print("写入数据库成功")

except Exception as e:

print("创建数据库失败:case%s" % e)

【info_list】当中的数据

数据库中的数据

取出数据

数据库还是需要连接的,我们任然以【战队排行榜】为例

import pymysql

def mysql():

db = pymysql.connect(

host='localhost', user='root',

passwd='123456', db='lpl', charset='utf8')

cur = db.cursor()

return db,cur

def query(sql):

db,cur = mysql()

cur.execute(sql)    #执行传入的sql语句

res =cur.fetchall() #获取sql语句字段中的所有数据

return res

#sql语句,从【战队排行榜前五】这张表中,选择战队名称,出场次数,胜率

sql_wings = 'SELECT 战队名称,出场次数,胜率 FROM 战队排行榜前五'

infos_wings = query(sql_wings) #取出数据

#print(infos_wings) : (('TES', '40', '75%'), ('JDG', '43', '72%'), ('V5', '49', '61%'), ('IG', '44', '59%'), ('SN', '52', '59%'))

name = [info[0] for info in infos_wings]

out_count = [info[1] for info in infos_wings]

win_rate = [info[2] for info in infos_wings]

infos_list = [('name', name), ('outcount', out_count), ('winRate', win_rate)]

#为什么最后要转换成字典的形式,我会在后面向前端传输数据的时候讲解

infos_dict = {key: value for key, value in infos_list}

#print(infos_dict)

#{'name': ['TES', 'JDG', 'V5', 'IG', 'SN'], 'outcount': ['40', '43', '49', '44', '52'], 'winRate': ['75%', '72%', '61%', '59%', '59%']}

Web程序开发

什么是Web程序

Web应用程序是一种可以通过Web访问的应用程序。Web应用程序的一个最大好处是用户很容易访问应用程序。用户只需要有浏览器即可,不需要再安装其他软件

能够开发web程序的编程语言有很多,比如Java,Php,Python等

而我们选择用Python进行开发,使用Falsk框架进行快速开发

什么是Falsk

Flask是一个使用 Python编写的轻量级Web应用框架。其WSGl( Python Web Server Gateway Interface)工具包采用 Werkzeug,模板引擎则使用 Jinja2,是目前十分流行的Web框架

这里给大家推荐一期视频,Flask快速入门.由于我的能力有限,还请大家花点时间将视频看完,再接着往后看文章

使用Flask连接前端页面

假定大家已经看完了视频,嘿嘿

使用pycharm创建一个flask项目,会自动帮我们生成两个文件夹【templates】【static】和一个python文件【app.py】

我们需要将写好的HTML文件放在【templates】目录下,CSS、JS和所用到的图片放在【static】目录下,如下图所示

值得注意的是,也是一个坑,HTML文件当中,引用的外部文件,文件地址一定要去修改。因为我们是先写好的前端页面,而flask当中需要我们将外部文件都放在【static】当中

[注意事项]

修改前

修改后

引入模板

这里所说的模板,就是我们写好的HTMl文件,只不过需要使用render_template()将其引入

import lpldata

from flask import Flask,render_template

app = Flask(__name__)

LPL = lpldata.Lpl_Data()#从数据库获取数据

@app.route('/')#默认路由

def hello_world():

return render_template("index.html")#引入模板

使用Ajax传输数据

什么是Ajax

Ajax是Asynchronous Javascript and XML的简称,通过Ajax向服务器发送请求,接收服务器返回的json数据,然后使用 Javascript修改网页,来实现页面局部数据更新。使用 Jquery框架可方便的编写Ajax代码,需要 Jquery.js文件

基本格式

$.ajax({

type:"post",     //请求类型

url:"/目标路由",  //请求地址

data:{},         //数据

datatype:"json",

success:function (data) {

//请求成功的回调函数,data是返回的数据

},

error:function () {

//请求失败时执行

}

})

我们先到app.py文件中,定义好一个路由(/wingsvd),methods添加一个'post',这里以【战队胜负图表】为例

@app.route('/wingsvd',methods=['GET','POST'])

def wings_vd():

return LPL.get_wings_vd()

LPL.get_wings_vd(),你可以到lpldata.py文件查看相关的代码。主要功能就是从数据获取数据,并且将数据整理好后,存到字典里面,最后使用json.dumps()将dict(字典)对象转换为json对象,最为函数的返回值返回

现在回到Ajax的部分,你可以到【js.js】文件中359行查看

function echarts_4() {

// 基于准备好的dom,初始化echarts实例

var myChart = echarts.init(document.getElementById('echart4'));

var lpl = {};

$.ajax({

url:'/wingsvd', //这里的地址是不是很眼熟,没错就是刚才定义的路由地址

data: {},

type: 'POST',

async: false,

dataType:'json',

success: function (data) {

lpl.name = data.name;  // 使用json的方法,提取刚才LPL.get_wings_vd()返回的数据

lpl.victory = data.victory;

lpl.defeat = data.defeat;

lpl.winRate = data.winRate;

......

数据提取成功后,就可以在后面的echarts代码中修改对应的配置,图表就可以显示出数据啦

这里以图表的X轴为例

xAxis: [

{

type: "category",

data: lpl.name,  //上面的代码是不是也有它呀,有就对啦

axisLine: { lineStyle: {color: "rgba(255,255,255,.1)"}},

axisLabel:  { textStyle: {color: "rgb(255,255,255)", fontSize: '16', }},

},

],

所有的图表传输数据的操作方法都是一样的,先在【app.py】中创建路由,返回你需要的数据,再到【js.js】当中写Ajax和Echarts的代码

最后的胜利

所有的准备工作完成后,我们就只剩最后一步啦!

if __name__ == '__main__':

app.run(debug=True)

右键,运行,点击下方的地址,可视化的页面就呈现在了你的眼前

世界因代码而改变   Peace Out

你可能感兴趣的:(python学得好牢饭)