虽然今天很累,但是其实也没有学很多东西,还是来整理一下,以免忘记,之后会自己去爬一些网站数据…
今天主要学了bs4和xpath,分为这两个部分来整理笔记:
直接用一个例子来看,使用bs4爬取某网站上面三国演义的内容,需要添加headers
### 使用bs4解析三国演义的内容
import requests
url = 'http://shicimingju.com/book/sanguoyanyi.html'
page_text = requests.get(url,headers=headers).text #首页的页面源码数据
fp = open('./sanguo.txt','w',encoding='utf-8')
#数据解析(章节标题,详情页的url)
soup = BeautifulSoup(page_text,'lxml')
#定位到了所有标题对应的a标签
a_list = soup.select('.book-mulu > ul > li >a') # >表示一个层级
for a in a_list:
title = a.string
detail_url = 'http://shicimingju.com'+a['href']
#解析提取章节内容
page_text_detail = requests.get(url=detail_url,headers=headers).text
#解析详情页中的章节内容
soup = BeautifulSoup(page_text_detail,'lxml')
content = soup.find('div',class_='chapter_content').text
#写入文件
fp.write(title+':'+content+'\n')
print(title,'下载成功')
下面介绍爬取图片数据和图片名称并将其保存到本地的例子,需要添加headers
import requests
import os
dirName = 'img'
# if os.path.exists(dirName):
# os.mkdir(dirName)
url = 'http://pic.netbian.com/4kdongman/index_%d.html'
for page in range(1,6):
if page == 1:
new_url = 'http://pic.netbian.com/4kdongman/'
else:
new_url = format(url%page) #表示非第一页的url
response = requests.get(new_url,headers=headers)
response.encoding='gbk'
page_text = response.text
# page_text = requests.get(new_url,headers=headers).text
#数据解析:图片地址和图片名称
tree = etree.HTML(page_text)
#定位到了所有的li标签
li_list = tree.xpath('//div[@class="slist"]/ul/li')
for li in li_list:
img_src = 'http://pic.netbian.com'+li.xpath('./a/img/@src')[0] #局部的数据解析,./表示的就是xpath调用者对应的标签
img_name = li.xpath('./a/img/@alt')[0]+'.jpg'
# print(img_src,img_name)
img_data = requests.get(img_src,headers=headers).content
filePath = dirName+'/'+img_name
with open(filePath,'wb') as fp:
fp.write(img_data)
print(img_name,'下载成功')