原文链接
要不一起来写个淘宝商品数据小爬虫吧?mp.weixin.qq.com
导语
好久没给自己开源的模拟登录库添加爬虫小案例了,周末就给大家带来一个淘宝商品数据小爬虫吧。顺便按老规矩把抓取到的数据可视化一波。废话不多说,让我们愉快地开始吧~
开发工具
Python版本:3.6.4
相关模块:
DecryptLogin模块;
pyecharts模块;
以及一些Python自带的模块。
数据爬取
既然说了是模拟登录相关的爬虫小案例,首先自然是要实现一下淘宝的模拟登录啦。这里还是利用我们开源的DecryptLogin库来实现,只需三行代码即可:
'''模拟登录淘宝'''
@staticmethod
def login():
lg = login.Login()
infos_return, session = lg.taobao()
return session
另外,顺便提一句,经常有人想让我在DecryptLogin库里加入cookies持久化功能。其实你自己多写两行代码就能实现了:
if os.path.isfile('session.pkl'):
self.session = pickle.load(open('session.pkl', 'rb'))
else:
self.session = TBGoodsCrawler.login()
f = open('session.pkl', 'wb')
pickle.dump(self.session, f)
f.close()
我真不想在这个库里添加这个功能,后面我倒是想添加一些其他爬虫相关的功能,这个之后再说吧。好的,偏题了,言归正传吧。接着,我们去网页版的淘宝抓一波包吧。比如F12打开开发者工具后,在淘宝的商品搜索栏里随便输入点东西,就像这样:
全局搜索一下诸如search这样的关键词,可以发现如下链接:
看看它返回的数据是啥:
看来应该没错了。另外,如果小伙伴们自己实战的时候没有找到这个接口api,可以尝试再点击一下右上角的下一页商品按钮:
这样就肯定能抓到这个请求接口啦。简单测试一下,可以发现尽管请求这个接口所需携带的参数看上去很多,但实际上必须要提交的参数只有两个,即:
q: 商品名称
s: 当前页码的偏移量
好啦,根据这个接口,以及我们的测试结果,现在就可以愉快地开始实现淘宝商品数据的抓取啦。具体而言,主代码实现如下:
'''外部调用'''
def run(self):
search_url = 'https://s.taobao.com/search?'
while True:
goods_name = input('请输入想要抓取的商品信息名称: ')
offset = 0
page_size = 44
goods_infos_dict = {}
page_interval = random.randint(1, 5)
page_pointer = 0
while True:
params = {
'q': goods_name,
'ajax': 'true',
'ie': 'utf8',
's': str(offset)
}
response = self.session.get(search_url, params=params)
if (response.status_code != 200):
break
response_json = response.json()
all_items = response_json.get('mods', {}).get('itemlist', {}).get('data', {}).get('auctions', [])
if len(all_items) == 0:
break
for item in all_items:
if not item['category']:
continue
goods_infos_dict.update({len(goods_infos_dict)+1:
{
'shope_name': item.get('nick', ''),
'title': item.get('raw_title', ''),
'pic_url': item.get('pic_url', ''),
'detail_url': item.get('detail_url', ''),
'price': item.get('view_price', ''),
'location': item.get('item_loc', ''),
'fee': item.get('view_fee', ''),
'num_comments': item.get('comment_count', ''),
'num_sells': item.get('view_sales', '')
}
})
print(goods_infos_dict)
self.__save(goods_infos_dict, goods_name+'.pkl')
offset += page_size
if offset // page_size > 100:
break
page_pointer += 1
if page_pointer == page_interval:
time.sleep(random.randint(30, 60)+random.random()*10)
page_interval = random.randint(1, 5)
page_pointer = 0
else:
time.sleep(random.random()+2)
print('[INFO]: 关于%s的商品数据抓取完毕, 共抓取到%s条数据...' % (goods_name, len(goods_infos_dict)))
就是这么简单,我们已经大功告成啦。最后,我们再来看下代码的运行效果呗:
见:https://zhuanlan.zhihu.com/p/...
数据可视化
这里我们来可视化一波我们抓到的奶茶数据呗。先来看看在淘宝上卖奶茶的商家在全国范围内的数量分布情况呗:
没想到啊,奶茶店铺最多的地方竟然是广东。T_T
再来看看淘宝上卖奶茶的店铺的销量排名前10名呗:
以及淘宝上评论数量前10名的奶茶店铺:
再看看在这些店铺要运费和不要运费的商品比例呗:
最后,再看看奶茶相关商品的售价区间呗:
差不多今天就这样呗。