python数据爬取与分析可视化方法_python爬取以及数据可视化分析数据情况

#所涉及到的是requests和openpyxl数据的存储和数据的清洗以及统计然后就是matplotlib进行数据的可视化

#静态数据点击element中点击发现在html中,服务器已经渲染好的内容,直接发给浏览器,浏览器解释执行,

#动态数据:如果点击下一页。我们的地址栏(加后缀但是前面的地址栏没变也算)(也可以点击2和3页)没有发生任何变化说明是动态数据,说明我们的数据是后来被渲染到html中的。他的数据根本不在html中的。

#动态查看network然后用的url是network里面的headers

#安装第三方模块输入cmd之后pip install 加名字例如requests

import requests

import re

import time

import json

import openpyxl #用于操作 excel文件的

headers= {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'}#创建头部信息

def get_comments(productId,page):

url= "https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId={0}&score=0&sortType=5&page={1}&pageSize=10&isShadowSku=0&fold=1".format(productId,page)

resp= requests.get(url, headers=headers)

s=resp.text.replace('fetchJSON_comment98(','')#进行替换操作。获取到所需要的相应的json,也就是去掉前后没用的东西

s=s.replace(');','')

json_data=json.loads(s)#进行数据json转换returnjson_data

#获取最大页数

def get_max_page(productId):

dis_data=get_comments(productId,0)#调用刚才写的函数进行向服务器的访问请求,获取字典数据return dis_data['maxPage']#获取他的最大页数。每一页都有最大页数

#进行数据提取

def get_info(productId):

max_page=get_max_page(productId)

lst=[]#用于存储提取到的商品数据for page in range(1,max_page+1):

#获取没页的商品评论

comments=get_comments(productId,page)

comm_list=comments['comments']#根据comnents获取到评论的列表(每页有10条评论)

#遍历评论列表,获取其中的相应的数据for item incomm_list:

#每条评论分别是一字典。在继续通过key来获取值

content=item['content']

color=item['productColor']

size=item['productSize']

lst.append([content,color,size])#将每条评论添加到列表当中

time.sleep(3)#防止被京东封ip进行一个时间延迟。防止访问次数太频繁

save(lst)

def save(lst):

#把爬取到的数据进行存储,保存到excel中

wk=openpyxl.Workbook()#用于创建工作簿对象

sheet=wk.active #获取活动表(一个工作簿有三个表)

#遍历列表将数据添加到excel中。列表中的一条数据在表中是一行

biaotou='评论','颜色','大小'sheet.append(biaotou)for item inlst:

sheet.append(item)

#将excel保存到磁盘上

wk.save('销售数据.xlsx')if __name__=='__main__':

productId='66749071789'get_info(productId)

print("ok")

你可能感兴趣的:(python数据爬取与分析可视化方法_python爬取以及数据可视化分析数据情况)