.请求网页函数
def get_url(url):
html = requests.get(url, headers=header).content.decode('utf-8')
return html
以get方式请求,加入headers参数传递头信息;抓取其二进制码并以“utf-8”形式编码,并返回;
.解析网页,提取图片链接
def parsel_url(html):
etree_html=etree.HTML(html)
img_urls=etree_html.xpath("//div[@class='row']/div[@class='text']/p/img/@src")
return img_urls
利用xpath语法提取图片链接
.下载图片并保存
#循环下载;下载4页,range左闭右开
for i in range(5):
#输入网址,找到网址规律
url = '
#请求网页
html=get_url(url)
#解析网页,提取图片链接Exness返佣
img_urls = parsel_url(html)
for img_url in img_urls:
#因为提取的网页链接不是网址标准形式,需要完善
response = requests.get('http:' + img_url, headers=header).content
#图片以二进制形式保存
with open("F://picture3//" + str(name) + '.jpg', 'wb') as f:
f.write(response)
#下载提示
print('正在下载第{}张'.format(name))
name += 1
利用name变量提示下载图片数量
完整代码
import requests
from lxml import etree
#用户代理
header={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'
}
#用name表示下载的名字
name=1
#请求网页函数
def get_url(url):
html = requests.get(url, headers=header).content.decode('utf-8')
return html
#解析网页
def parsel_url(html):
etree_html=etree.HTML(html)
img_urls=etree_html.xpath("//div[@class='row']/div[@class='text']/p/img/@src")
return img_urls
#循环下载;下载4页,range左闭右开
for i in range(5):
#输入网址,找到网址规律
url =
#请求网页
html=get_url(url)
#解析网页,提取图片链接
img_urls = parsel_url(html)
for img_url in img_urls:
#因为提取的网页链接不是网址标准形式,需要完善
response = requests.get('http:' + img_url, headers=header).content
#图片以二进制形式保存
with open("F://picture3//" + str(name) + '.jpg', 'wb') as f:
f.write(response)
#下载提示
print('正在下载第{}张'.format(name))
name += 1