第一周实战作业:爬取一页商品数据

爬虫实战第三天

任务

爬取北京58同城二手平板交易页面的数据详情,包括标题,价格,地区等。

成果

共爬取1750个页面的数据,并保存到.xls中。


第一周实战作业:爬取一页商品数据_第1张图片

源码

import requests
import time
from bs4 import BeautifulSoup

info = []
urls = ['http://bj.58.com/pbdn/0/pn{}/?PGTID=0d305a36-0000-1e57-ae30-de136659c08c&ClickID=2'.format(str(i)) for i in range(1, 51)]


def get_views(view_link):
    # wb_data.url == view_link
    wb_data = requests.get(view_link)
    # 如果链接用urllib.request中的urlopen解析,则wb_data不需要.text
    soup = BeautifulSoup(wb_data.text, 'lxml')
    # 58网站前三个加精的网页与后面结构有所不同,可以直接不管,筛选规则按照后面网页的写法
    # 严格来说cate删除换行符空格等处理最好用正则表达式,否则会漏掉不符合strip规则的页面;;实际上完全取出来了,哈哈!
    data = {
        'cate': soup.find_all(attrs={'class': 'crb_i'})[-1].get_text().strip('\n\r\n\t        ').strip('\n'),
        'title': soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.box_left_top > h1')[0].get_text(),
        'price': soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.price_li > span > i')[0].get_text(),
        'region': soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.palce_li > span > i')[0].get_text(),
        'look_time': soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.box_left_top > p > span.look_time')[0].get_text()
    }
    print(data)
    info.append(data)


def get_links(start_link):
    wb_data = requests.get(start_link)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    view_links = soup.select('#infolist > div.infocon > table > tbody > tr > td.t > a')
    return view_links

# 由于使用了try语句,因此不符合上述规则的网页不会被爬取到,这是优点也是缺点
for url in urls:
    view_links = get_links(url)
    for view_link in view_links:
        try:
            get_views(view_link['href'])
        except Exception as e:
            pass
    time.sleep(1)

with open('bj58.xls', 'w') as f:
    for i in info:
        for key in i:
            try:
                f.write(key)
                f.write('\t')
                f.write(i[key])
                f.write('\t')
            except Exception as e:
                break
        f.write('\n')

小结

  • 注意区分貌似同一样式的页面,如首页前三个加精网页,网页HTML结构与后面其他网页的结构是不同的。
  • try...except语句对于爬虫错误处理特别好使,不至于在某个网页处理不成功时停止爬取。

你可能感兴趣的:(第一周实战作业:爬取一页商品数据)