使用python抓取贴吧里面的图片

zha.jpg

其实这个功能是我在开始学python就一直想做的 学了很久然后才会这破东西 看的教程有些还没提到 自己又去百度现学 太惨了

废话少说 开干

  • 首先打开贴吧的链接:https://tieba.baidu.com/p/5903016452

  • 分析一下这个页面:

    image.png

  • 这个img标签有个类属性 类名是BDE_Image 发现所有的图片都是这个类名 于是可以用BeautifulSoup去查找这个类名然后取出其中的src得到地址 再进行下载

  • 方便起见 也看得懂 面向过程来写 不想写的有多优美 大家看的明白才是硬道理

代码摘要

import requests
import lxml
import hashlib
from bs4 import BeautifulSoup


Url = 'https://tieba.baidu.com/p/5902645251'


UserAgent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
Header = {'User-Agent':UserAgent}


GetHtmlContent = requests.get(Url,headers = Header).content


FindPicClass = BeautifulSoup(GetHtmlContent,'lxml')


FindPicClass = FindPicClass.select('.BDE_Image')


imgcount = 0


SaveMd5Obj = hashlib.md5()


for PickLink in FindPicClass:
    PicSrc = PickLink.get('src')


    SaveMd5Obj.update('tieba')


    Md5 = SaveMd5Obj.hexdigest()


    path = 'd:/tmp/' + str(imgcount) + str(Md5) + '.jpg'


    ImgSave = open(path,'wb+')


    ImgUrl = requests.get(PicSrc).content


    ImgSave.write(ImgUrl)

    ImgSave.close()

    imgcount += 1

你可能感兴趣的:(使用python抓取贴吧里面的图片)