目录
前言
一、用到的工具
二、爬取步骤与过程
1.用到的库
2.解析代码
三、最后上全部的代码啦
最后感悟
听说好的编程习惯是从写文章敲代码开始的,下面给大家介绍一个简单的python爬取图片的过程,超简单。我都不好意思写,但是主要是捋一下爬取过程。本文只是技术交流的,请不要商业用途哈
使用python爬虫工具,我使用的工具就是学习python都会用的的工具,一个是pycharm,一个是chrome,使用chrome只是我的个人习惯,也可以用其他的浏览器,我除了这两个软件还用到了window自带的浏览器。
爬取图片我主要用到了爬虫初学的requests请求模块和xpath模块,这用xpath只是为了方便找图片的链接和路径的,当然也可以用re模块和Beautiful Soup模块这些。time模块是为了后续下载图片做延时的,毕竟要保护下网站,Pinyin模块里面有个程序要将中文转成拼音。
import time
import pinyin
import requests
from lxml import etree #这是导入xpath模块
首先输入选择图片类型和图片的也网址页码,因为一种类型的图片有很多图片的,一个网页是放不下的这就需要选择多个页码。
type=input("请输入图片的类型:")
type=pinyin.get(f"{type}",format="strip") #这是将输入的中文转成拼音,format是为了去掉拼音的声标
m=input("请输入图片的页码:") #图片类型所在网页的页码
接下来就请求网址了,其中先获取网址的源代码,然后通过xpath获取图片的链接和名字,为什么是小图片呢,因为一个网页要显示很多图片,如果是大图片,一个网页只能放一张的。
url=f"https://pic.netbian.com/4k{type}/index_{m}.html"
header={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.82 Safari/537.36"
}
resp=requests.get(url=url,headers=header)
resp.encoding="gbk"
tree=etree.HTML(resp.text)
tu_links=tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href') #小图片的链接
tu_names=tree.xpath('//*[@id="main"]/div[3]/ul/li/a/b/text()') #图片的名字
接下来就是一层一层的找图片的链接,和下载地址,也就是一个查找的循环操作。
tu_link.split()
child_url = url.split(f'/4k{type}/')[0] + tu_link #将小图片的部分链接和主链接拼接起来
resp1 = requests.get(url=child_url, headers=header) #打开小图片的网址
resp1.encoding = 'gbk'
tree1 = etree.HTML(resp1.text)
child_tu_link= tree1.xpath('/html/body/div[2]/div[1]/div[2]/div[1]/div[2]/a/img/@src') #获取大图片的部分链接
child_tu_link=child_tu_link[0]
child_tu_link_over=url.split(f'/4k{type}/')[0]+child_tu_link #将大图片链接拼接起来
resp2=requests.get(child_tu_link_over,headers=header) #获取大图片
最后就是下载图片啦
with open(f"壁纸图片/{name}.jpg",mode="wb") as f: #接下来就是下载了
f.write(resp2.content)
来看看最后的效果吧
这就是简简单单的爬取图片的代码,完全没有用到什么复杂的知识,简简单单,你值得拥有哈哈
import time
import pinyin
import requests
from lxml import etree #这是导入xpath模块
type=input("请输入图片的类型:")
type=pinyin.get(f"{type}",format="strip") #这是将输入的中文转成拼音,format是为了去掉拼音的声标
m=input("请输入图片的页码:") #图片类型所在网页的页码
url=f"https://pic.netbian.com/4k{type}/index_{m}.html"
header={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.82 Safari/537.36"
}
resp=requests.get(url=url,headers=header)
resp.encoding="gbk"
tree=etree.HTML(resp.text)
tu_links=tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href') #小图片的部分链接
tu_names=tree.xpath('//*[@id="main"]/div[3]/ul/li/a/b/text()') #图片的名字
n=0
for tu_link in tu_links:
tu_link.split()
child_url = url.split(f'/4k{type}/')[0] + tu_link #将小图片的部分链接和主链接拼接起来
resp1 = requests.get(url=child_url, headers=header) #打开小图片的网址
resp1.encoding = 'gbk'
tree1 = etree.HTML(resp1.text)
child_tu_link= tree1.xpath('/html/body/div[2]/div[1]/div[2]/div[1]/div[2]/a/img/@src') #获取大图片的部分链接
child_tu_link=child_tu_link[0]
child_tu_link_over=url.split(f'/4k{type}/')[0]+child_tu_link #将大图片链接拼接起来
resp2=requests.get(child_tu_link_over,headers=header) #获取大图片
name=tu_names[n]
with open(f"壁纸图片/{name}.jpg",mode="wb") as f: #接下来就是下载了
f.write(resp2.content)
print(f"{name} 下载完毕!!")
n+=1 #每下载一张图片n就加1
time.sleep(1.5)
resp1.close()
print("全部下载完毕!!") #over!over!
resp.close() #最后记得要把所有请求的响应关闭
注意:本文章只用于技术交流,请勿用于商用,如有违反,吾概不负责!!!
写这一篇简简单单的代码也遇到了几个小问题,用xpath获取链接,返回的是空列表,给我脑的,最后上网找资料也没找到,重新敲了一边才发现是自己的语法错误。
欢迎大家前来探讨探讨,如果有不好的地方请指教,谢谢。