要不一起来写个淘宝商品数据小爬虫吧?

原文链接

要不一起来写个淘宝商品数据小爬虫吧?​mp.weixin.qq.com图标

导语

好久没给自己开源的模拟登录库添加爬虫小案例了,周末就给大家带来一个淘宝商品数据小爬虫吧。顺便按老规矩把抓取到的数据可视化一波。废话不多说,让我们愉快地开始吧~

开发工具

Python版本:3.6.4
相关模块:
DecryptLogin模块;
pyecharts模块;
以及一些Python自带的模块。

数据爬取

既然说了是模拟登录相关的爬虫小案例,首先自然是要实现一下淘宝的模拟登录啦。这里还是利用我们开源的DecryptLogin库来实现,只需三行代码即可:

'''模拟登录淘宝'''
@staticmethod
def login():
    lg = login.Login()
    infos_return, session = lg.taobao()
    return session

另外,顺便提一句,经常有人想让我在DecryptLogin库里加入cookies持久化功能。其实你自己多写两行代码就能实现了:

if os.path.isfile('session.pkl'):
    self.session = pickle.load(open('session.pkl', 'rb'))
else:
    self.session = TBGoodsCrawler.login()
    f = open('session.pkl', 'wb')
    pickle.dump(self.session, f)
    f.close()

我真不想在这个库里添加这个功能,后面我倒是想添加一些其他爬虫相关的功能,这个之后再说吧。好的,偏题了,言归正传吧。接着,我们去网页版的淘宝抓一波包吧。比如F12打开开发者工具后,在淘宝的商品搜索栏里随便输入点东西,就像这样:

要不一起来写个淘宝商品数据小爬虫吧?_第1张图片

全局搜索一下诸如search这样的关键词,可以发现如下链接:

要不一起来写个淘宝商品数据小爬虫吧?_第2张图片

看看它返回的数据是啥:

要不一起来写个淘宝商品数据小爬虫吧?_第3张图片

看来应该没错了。另外,如果小伙伴们自己实战的时候没有找到这个接口api,可以尝试再点击一下右上角的下一页商品按钮:

要不一起来写个淘宝商品数据小爬虫吧?_第4张图片

这样就肯定能抓到这个请求接口啦。简单测试一下,可以发现尽管请求这个接口所需携带的参数看上去很多,但实际上必须要提交的参数只有两个,即:

q: 商品名称
s: 当前页码的偏移量

好啦,根据这个接口,以及我们的测试结果,现在就可以愉快地开始实现淘宝商品数据的抓取啦。具体而言,主代码实现如下:

'''外部调用'''
def run(self):
    search_url = 'https://s.taobao.com/search?'
    while True:
        goods_name = input('请输入想要抓取的商品信息名称: ')
        offset = 0
        page_size = 44
        goods_infos_dict = {}
        page_interval = random.randint(1, 5)
        page_pointer = 0
        while True:
            params = {
                        'q': goods_name,
                        'ajax': 'true',
                        'ie': 'utf8',
                        's': str(offset)
                    }
            response = self.session.get(search_url, params=params)
            if (response.status_code != 200):
                break
            response_json = response.json()
            all_items = response_json.get('mods', {}).get('itemlist', {}).get('data', {}).get('auctions', [])
            if len(all_items) == 0:
                break
            for item in all_items:
                if not item['category']:
                    continue
                goods_infos_dict.update({len(goods_infos_dict)+1: 
                                            {
                                                'shope_name': item.get('nick', ''),
                                                'title': item.get('raw_title', ''),
                                                'pic_url': item.get('pic_url', ''),
                                                'detail_url': item.get('detail_url', ''),
                                                'price': item.get('view_price', ''),
                                                'location': item.get('item_loc', ''),
                                                'fee': item.get('view_fee', ''),
                                                'num_comments': item.get('comment_count', ''),
                                                'num_sells': item.get('view_sales', '')
                                            }
                                        })
            print(goods_infos_dict)
            self.__save(goods_infos_dict, goods_name+'.pkl')
            offset += page_size
            if offset // page_size > 100:
                break
            page_pointer += 1
            if page_pointer == page_interval:
                time.sleep(random.randint(30, 60)+random.random()*10)
                page_interval = random.randint(1, 5)
                page_pointer = 0
            else:
                time.sleep(random.random()+2)
        print('[INFO]: 关于%s的商品数据抓取完毕, 共抓取到%s条数据...' % (goods_name, len(goods_infos_dict)))

就是这么简单,我们已经大功告成啦。最后,我们再来看下代码的运行效果呗:

见:https://zhuanlan.zhihu.com/p/...

数据可视化

这里我们来可视化一波我们抓到的奶茶数据呗。先来看看在淘宝上卖奶茶的商家在全国范围内的数量分布情况呗:

要不一起来写个淘宝商品数据小爬虫吧?_第5张图片

没想到啊,奶茶店铺最多的地方竟然是广东。T_T

再来看看淘宝上卖奶茶的店铺的销量排名前10名呗:

要不一起来写个淘宝商品数据小爬虫吧?_第6张图片

以及淘宝上评论数量前10名的奶茶店铺:

要不一起来写个淘宝商品数据小爬虫吧?_第7张图片

再看看在这些店铺要运费和不要运费的商品比例呗:

要不一起来写个淘宝商品数据小爬虫吧?_第8张图片

最后,再看看奶茶相关商品的售价区间呗:

要不一起来写个淘宝商品数据小爬虫吧?_第9张图片

差不多今天就这样呗。

相关文件

https://github.com/CharlesPika

你可能感兴趣的:(python,网页爬虫)