如何利用Python爬虫获取网络小说

前言:

随着网络的时代的发展,人们很少去安静的去看一本书。而是选择看网络小说,可是网络小说有些要钱才能看。

无限小说网:

https://www.555x.org/

里边的内容是完全免费的,提供了各种种类的小说。满足用户的需要。可一页一页看小说太麻烦,直接下载多方便。

今天教大家爬取无限小说网,把小说的下载链接通过网络请求直接下载。

如何利用Python爬虫获取网络小说_第1张图片

一、项目目的

获取对应小说的下载链接,点击下载链接网址,下载对应的txt文件。

二、项目准备

软件:PyCharm

需要的库:requests、lxml、fake_useragent

网站如下:

https://www.555x.org/html/wuxiaxianxia/list_29_{}.html

点击下一页时,list_29_{}每增加一页自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

三、项目实现

1、定义一个class类继承object,定义init方法继承self,主函数main继承self。导入需要的库和网址,代码如下所示。

import requests
from lxml import etree
from fake_useragent import UserAgent
import time

class  xiaoshuo(object):
    def __init__(self):
      self.url = "https://www.xiachufang.com/explore/?page={}"

    def main(self):
        pass

if __name__ == '__main__':
    imageSpider =  xiaoshuo()
    imageSpider.main()

2、随机产生UserAgent。

for i in range(1, 50):
    self.headers = {
        'User-Agent': ua.random,
    }

3、发送请求,获取响应, 页面回调,方便下次请求。

def get_page(self, url):
    res = requests.get(url=url, headers=self.headers)
    html = res.content.decode("utf-8")
    return html

4、xpath解析一级页面数据,获取页面信息。

(1)f12运行浏览器,右键检查。找到对应二级页面的地址。

如何利用Python爬虫获取网络小说_第2张图片

(2)二级页面,右键检查。点击下载按钮,找到对应三级页面的地址。

如何利用Python爬虫获取网络小说_第3张图片

5、三级页面,先找到对应的父节点,再for循环遍历进行爬取。

for rd in three:
    b = rd.xpath('..//div[@class="shutou"]//b/text()')[0].strip()
    tress = rd.xpath('..//div[@class="shuji"]//ul/li/a/@href')[0].strip()
    # print(tress)

6、定义read保存对应的小说名字,下载链接。

read = '''《%s》 下 载 链 接 : %s ''' % (b, tress)
print(read)

7、调用方法,实现功能。

html = self.get_page(url)
self.parse_page(html)

四、效果展示

1、点击绿色小三角运行输入起始页,终止页。

如何利用Python爬虫获取网络小说_第4张图片

2、运行程序后,结果显示在控制台,如下图所示。

如何利用Python爬虫获取网络小说_第5张图片

3、点击蓝色下载链接, 网络下载

4、双击小说文件,内容如下图所示。

如何利用Python爬虫获取网络小说_第6张图片

最后总结:

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、本文基于Python网络爬虫,利用爬虫库,实现爬取小说下载链接,网络请求直接下载。

3、实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

4、希望通过这个项目,能够帮助一些上班族,在空闲时能够直接通过网络去获取自己想要的小说 。

5、懒人是科技进步的动力。

6、欢迎大家点赞,留言,转发,感谢大家的相伴与支持,需要本文源码关注公众号:【编程语言之家】有惊喜哦!觉得不错,记得给个Star噢~

 

 

你可能感兴趣的:(Python爬虫,Python库,Python,python,爬虫,程序人生,经验分享,后端)