Python05-课时20,爬去58同城数据,level1.独立完成,搞定。

我自己独立完成了老师留的作业,很值得纪念。

import requests
from bs4 import BeautifulSoup
url = 'http://bj.58.com/pbdn/0/pn2/?PGTID=0d305a36-0000-1c2a-07bc-9768e5cf6d74&ClickID=2'
#上面的是个人链接。#从上往下写函数,先编写小函数,最后写大函数,然后调用前面的小函数

def get_info(url): #这是个局部函数,小函数,应该写在前面,方便后面调用。    #测试了,很好用,没问题。
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    cateagry = soup.select('#nav > div > span.crb_i > a')
    title = soup.select('h1.info_titile')
    price = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.price_li > span > i')
    area = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.palce_li > span > i')
    for cate,title2,price2,area2 in zip(cateagry,title,price,area):
        data={
            'cate':cate.get_text(),
            'title' : title2.get_text(),
            'price' : price2.get_text(),
            'area' : area2.text
        }
        print(data)
def get_all_links(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    links=soup.select('#infolist > div.infocon > table > tbody > tr > td.t > a.t')
    for link in links:
        clink=link.get('href').split('?')[0]
        get_info(clink)

get_all_links(url) #执行函数。

    ```

这是第一阶段。能够独立完成了。

运行结果如下:

![Paste_Image.png](http://upload-images.jianshu.io/upload_images/2731375-cc7c7b764d048cb7.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

你可能感兴趣的:(Python05-课时20,爬去58同城数据,level1.独立完成,搞定。)