发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

今天发现一个好网站

https://www.mzitu.com/
发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第1张图片

 

先来欣赏一下爬下来的图片

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第2张图片

 

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第3张图片

 

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第4张图片

 

咳咳。。。不知道能不能过

 

学习之余我们来练习一下代码

开发工具

  • python 3.6.5
  • pycharm

爬虫代码

导入工具

import requests
import parsel

 

请求网页获取列表页

response = requests.get(url=url, headers=headers)
selector = parsel.Selector(response.text)
lis = selector.css('#pins li a::attr(href)').getall()
for li in lis:
    page_id = li.split('/')[-1]

 

获取详情页下一页url

def netx_url(url, page_id):
    response_2 = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response_2.text)
    last_num = selector.css('.pagenavi a:nth-child(7) span::text').get()
    for i in range(1, int(last_num) + 1):
        new_url = 'https://www.mzitu.com/{}/{}'.format(page_id, i)

 

保存数据

def download(url):
    response = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response.text)
    title = selector.css('body > div.main > div.content > h2::text').get()  # 图片标题
    img_url = selector.css('.main-image p img::attr(src)').get()  # 图片地址
    path = 'D:\\python\\demo\\妹子图\\img\\' + title + '.jpg'
    download_response = requests.get(url=img_url, headers=headers)
    with open(path, mode='wb') as f:
        f.write(download_response.content)
        print(title, img_url)

 

运行代码,效果如下图

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第5张图片

 

发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来_第6张图片

你可能感兴趣的:(发现一个好网站,人间尤物、魅惑黑丝都是福利呀!那就都爬取下来)