用python3爬取天猫商品评论并分析(0)

  由于日后实习需要,新年假期在家里有空写了个抓取天mao评论的程序,并用pythonsnownlp模块进行简单的情感分析,由于本人刚接触python,项目可能有许多不足,请大家谅解!具体流程如下:

0. 主要流程

0. 数据采集

0. 目标网址获取

首先,获取自己要爬取的商品网页。如图:

 用python3爬取天猫商品评论并分析(0)_第1张图片

这里用iPhone x的商品做样例(博主目前使用的手机是小米3,穷鬼啊有没有!)。因为加载评论的页面用js封装起来了。因此需要用到浏览器开发者工具获取保存评论的页面,直接按F12打开。如图:

 用python3爬取天猫商品评论并分析(0)_第2张图片

NETwork//js目录下有一个形如上图的网址(巨长无比呀),细心发现会有一个page=1的字段,这个是控制不同页数的关键字!因此我们只需要改变page的值就能爬取不同页面的内容了!!具体代码如下:

# -*- coding: utf-8 -*-
import urllib.request
import json
import time
import re
import pymysql
def find_message(url,x,j):
    print('已有' + str(x) + '页无法获取')
    #读取网页数据
    html = urllib.request.urlopen(url).read().decode('gbk')
    #筛选json格式数据
    jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)
    #用json加载数据
    data = json.loads(jsondata)
    #数据保存在变量里
    conn = pymysql.connect(host='localhost', port=3306, user='root', passwd='1234', db='pysql', charset='utf8')
    cur = conn.cursor()
    # 连接mysql
    print('连接成功!!!!')
    try:
        for i in range(0, len(data['rateDetail']['rateList'])):
            #print(str(i + 1) + data['rateDetail']['rateList'][i])
            name = data['rateDetail']['rateList'][i]['displayUserNick']
            #处理过的用户名
            content = data['rateDetail']['rateList'][i]['rateContent']
            #当天评论
            time = data['rateDetail']['rateList'][i]['rateDate']
            # 评论日期
            iphonetype = data['rateDetail']['rateList'][i]['auctionSku']
            #机型
            appenddays = data['rateDetail']['rateList'][i]['appendComment']['days']
            #追加评论的天数
            appendtime=data['rateDetail']['rateList'][i]['appendComment']['commentTime']
            #追加评论的时间
            appendcontent=data['rateDetail']['rateList'][i]['appendComment']['content']
            #追加评论的内容
            cur.execute("insert into iphonex(用户名,当天评论,当天时间,机型,追加天数,追加时间,追加评论) values (\"%s\",\"%s\",\"%s\",\"%s\",%d,\"%s\",\"%s\")"%(str(name),str(content),str(time),str(iphonetype),int(appenddays),str(appendtime),str(appendcontent)))
        print(str(j+1)+"页数据已经保存")
        #数据插入mysql
        return x
    except BaseException:
        x+=1
        print('已有'+str(x)+'页无法获取')
        print("####此页无法获取####")
        return x



#主函数
x=0
for j in range(1,50):
    try:
        print("正在获取第{}页评论数据!".format(j))
        url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=560257961625&spuId=893336129&sellerId=1917047079&order=3¤tPage=' + str(j) +'&append=1&' \
              'content=1&tagId=&posi=&picture=0&ua=098%23E1hvLpvZv7UvUpCkvvvvvjiPPLLhzjtbPscOsjljPmPhljlUR25Z0jlURFSWljn8RFyCvvpvvvvvdphvmpvhOOhvvv2' \
              'psOhCvv147GzzgY147Dunrn%2FrvpvEvvkj9oIuvWLMdphvmpvWPgEboQvgfOhCvv14cOjzyC147DikWn%2Fjvpvhvvpvv8wCvvpvvUmmRphvCvvvvvvPvpvhMMGvvvyCvhQpm' \
              'kwvCszEDajxRLa9mNLhQnmOjVQ4S47B9CkaU6bnDO2hV36AxYjxAfyp%2B3%2BuQjc60fJ6EvLv%2BExreE9aUExr0jZ7%2B3%2Buzjc61C4Auphvmvvv9bvT4yc7kphvC99v' \
              'vOClpbyCvm9vvvvvphvvvvvv96Cvpvs4vvm2phCvhRvvvUnvphvppvvv96CvpCCvvphvC9vhvvCvp86Cvvyv224CeiIvHUytvpvhvvvvv86CvvyvhEKCFgGv1WQtvpvhvvvvvUh' \
              'CvmDz7GczTr147Dup2nGD1TAqsd%2FoU0dieGd8S6STvI8byIKB9OHmvtmWyv%3D%3D&isg=BAMDf2HuXRdECBGLXKb6oZc2ksdt0Jbc5_lgETXg6mLa9CIWvUsTCypmaoS61O-y&itemPropertyId=&itemPropertyIndex=&userProp' \
              'ertyId=&userPropertyIndex=&rateQuery=&location=&needFold=0&_ksTS=1518175553706_1200&callback=jsonp1201'
        x=find_message(url,x,j)
        time.sleep(3)
        # 设置时间间隔(这个不要忽视)
    except BaseException:
        continue

说几点代码的问题:

js网页效果图如下:

用python3爬取天猫商品评论并分析(0)_第3张图片

jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)

由网页效果图可知,评论信息是保存在jsonp719()里面的,因此需要用正则表达式获取()里面的内容,去除无用部分,然后用json.loads得到字典data。

 用python3爬取天猫商品评论并分析(0)_第4张图片

如上图,用pycharm里面的json格式打开输出的数据data可以得到想要的数据在字典中位置。

data = json.loads(jsondata)后面加print(data)输出原数据会发现一些问题:如下

 用python3爬取天猫商品评论并分析(0)_第5张图片

打开图中url得到:

 用python3爬取天猫商品评论并分析(0)_第6张图片

没错这个就是securitymatrix(下篇文章介绍),这样会有一些页面无法获取一些页面,所以需要设置 time.sleep(3)这里用参数3,其实最好用random()选随机数3到5的参数(这样T猫机器人没那么容易发现你也是它的同类,页面丢失率会降低,当然你也可以写个函数重新获取丢失的页面) 

运行结果:

 用python3爬取天猫商品评论并分析(0)_第7张图片

用python3爬取天猫商品评论并分析(0)_第8张图片

用python3爬取天猫商品评论并分析(0)_第9张图片

由于丢失了2页数据,所以剩下960条记录(50页每页20条)

好了爬取工作完成了!

1. 爬虫框架选用

本来打算是用pythonselenium模块模拟登录爬取的但是由于天猫的securitymatrix安全系统()比较强大,博主还没有能力破解,这里只能使用自己写的流程用request库抓取网页。

当然你也可以选择pythonscrapy模块爬取,这个看个人喜好吧!核心思路是不变的。

好了爬虫部分写到这里了,后面的内容以后会更新!由于博主还是小白,写的代码,特别是异常处理写的不是很规范。希望各位大师指点。

听说帅的人都关注了!

那么你帅吗????^-^

   还有欢迎各位留言交流!!!

      预祝2018,新年快乐!

你可能感兴趣的:(python网络爬虫和数据分析)