python使用bs模块爬取小说数据

目录

一、BS模块介绍        

二、分析页面架构

三、代码实现

四、结果展示

五、总结思路


一、BS模块介绍        

        Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。

Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。

Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。

详细的BS模块介绍(参考网友):

Python中BeautifulSoup库的用法_阎_松的博客-CSDN博客_python beautifulsoup

业务需求:通过BS模块来抓取某小说里面的数据内容

二、分析页面架构

        通过bs模块可以抓取到网站源代码的数据,然后分析抓取网站代码架构。首先可以看到网站每一章的标签都是div class="book-mulu"标签下面,只要搜索到标签值就可以抓到里面数据。

python使用bs模块爬取小说数据_第1张图片

         第二是内容的url是藏在a href标签里面的数据, 每个章节的sanguoyanyi/x.html来代替,x是章节数。通过一个for循环可以把数据赋值到每个列表中,在通过get方法抓取每个url中的内容,刚好每个章节的内容藏在chapter_content的标签下面,用select模块就可以抓到标签下面内容。

python使用bs模块爬取小说数据_第2张图片

python使用bs模块爬取小说数据_第3张图片

python使用bs模块爬取小说数据_第4张图片

 三、代码实现

        每个代码详细功能写在注释里面了,不懂留言沟通。

# -*- coding:UTF-8 -*-
import requests
import json
from bs4 import BeautifulSoup
import cchardet#字符编码格式化模块包
if __name__ == "__main__":
    #浏览器请求标识符
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}
    #爬取url的地址
    url='http://www.shicimingju.com/book/sanguoyanyi.html'
    #使用requests方法抓取书
    page_test = requests.get(url=url,headers=headers)
    #用cchardet的detect方法将content编码化
    page_test_coding = cchardet.detect(page_test.content)['encoding']
    #print(page_test.content.decode(page_test_coding))
    #给一个变量赋值到抓取下来的内容
    new_page_test = page_test.content.decode(page_test_coding)
    #使用bs模块的lxml方法进行解析
    soup = BeautifulSoup(new_page_test,'lxml')
    # print(soup)
    #用select方法搜索book-mulu标签下ul标签下li标签
    li_list= soup.select('.book-mulu > ul > li')
    #新建对象保存
    fp = open('./sanguo.txt','w',encoding='utf-8')
    for li in li_list:
        #标题用string字符串保存
        title = li.a.string
        #内容方面的url
        detail_url = 'http://www.shicimingju.com'+li.a['href']
        #继续抓取内容url的赋值
        detai_page_text = requests.get(url=detail_url,headers=headers).content
        #创建对象,括号中的参数是html文档(可以打开外部存储html文档的文件BeautifulSoup(open("index.html")),或者直接使用当前文件中的html字符串对象)和解析器名称
        detail_soup = BeautifulSoup(detai_page_text,'lxml')
        #查找标签chapter_content的内容
        div_tag = detail_soup.find('div',class_='chapter_content')
        #将内容使用text方法赋予新对象
        content = div_tag.text
        #写入文本中title和content加换行符
        fp.write(title+':'+content+'\n')
        #打印爬取结果
        print(title,'爬取成功!')

四、结果展示

        编译结果显示正常,每个章节都抓取到了数据。

python使用bs模块爬取小说数据_第5张图片

 查看保存的text文档

​​​​​​​python使用bs模块爬取小说数据_第6张图片

 五、总结思路

        requests抓取下来的数据是有带.content或者.text标签的数据,尝试了很多用.text标签抓下来的数据是乱码。后面怎么用utf-8格式变通都不行,原来response.text这个是str的数据(unicode),是requests库将response.content进行解码后的字符串。(而我们在解码的时候需要指定一个编码方式,requests在进行自动解码的时候需要猜测编码的方式,所以避免不了判断失误,就会导致解码产生乱码.)后面用content就可以行的通了。为了以防万一,使用cchardet模块来解决编码问题。Python requests乱码的五种解决办法_小龙在山东的博客-CSDN博客_python requests 乱码)

参考文献:

Python中BeautifulSoup库的用法_阎_松的博客-CSDN博客_python beautifulsoup

requests.text和requests.content的区别_、Lu的博客-CSDN博客_requests.text

Python requests乱码的五种解决办法_小龙在山东的博客-CSDN博客_python requests 乱码

你可能感兴趣的:(爬虫,python数据分析,python开发,python,爬虫,开发语言)