网络爬虫——项目实战(爬取糗事百科所有文章)

代码代写(实验报告、论文、小程序制作)服务请加微信:ppz2759

项目分析

一、首先准备好我们要爬取网站的糗事百科网址(http://www.qiushibaike.com/),大家可以查看一下文章的源代码,查找我们要爬取的内容的规律,下面是我提取的部分代码

<div class="content">
<span>
儿子三岁的时候,经常跟着奶奶,奶奶开了个养鸡场,养了三四千只鸡,孩子每天最高兴的就是跟奶奶进鸡房捡鸡蛋,拾进那个大木头箱子,拉出来,再装进蛋托里装箱。<br/><br/>有天奶奶正在那装蛋托呢,儿子在跟前玩,一个没立稳,一屁股坐在了装鸡蛋的大木箱子里,把满满的一箱子鸡蛋坐出了个大坑,吓的哇哇哭起来了,奶奶都没舍得训他。而是自己把剩下好的鸡蛋挨个都擦了装箱,把还能吃的坏一点的鸡蛋都留下来自个吃。<br/><br/>晚上吃饭的时候,他叔叔和爷爷看着饭桌上炒的一大盘鸡蛋,都说婆婆开眼了,舍得炒这么多鸡蛋,儿子在一边悠悠得说:“叔叔,
…
span>
<span class="contentForAll">查看全文span>
div>

<a href="/article/122710686" target="_blank" class="contentHerf" onclick="_hmt.push(['_trackEvent','web-list-content','chick'])">
<div class="content">
<span>
单位安排我们一些管理人员先上班!<br/>这天领导突然检查工作,要求必须佩戴好口 罩去迎接!<br/>当时我在整理文件,着急忙慌的刚摘掉的口罩居然找不到了,情急之下,我抓起美女同事桌子上的一包口 罩就往外跑!<br/>在离领导们还有20米左右的时候,我赶紧拿出口罩准备戴上,拿出来才发现,是卫 生 巾!<br/>哎哟哟,众目奎奎一下,我这个脸呀!
span>
div>

结合上面的代码和下面的前端样式,我们可以得出结论,所有的文章是在 < div class=“content”>之间,有的同学可能会问,为什么不是< span>标签里面的呢,因为有的span标签里面有干扰的内容,比如上文的< span class=“contentForAll”>查看全文
网络爬虫——项目实战(爬取糗事百科所有文章)_第1张图片
二、打开观察一下界面,我们可以发现这是由很多页组成的,我们如果想爬取全部的内容的话,同时需要翻页操作,这就需要我们分析一下如何翻页。
第二页网址:https://www.qiushibaike.com/hot/page/2/
第三页网址:https://www.qiushibaike.com/hot/page/3/
第四页网址:https://www.qiushibaike.com/hot/page/4/
这样大家就会发现规律了吧
网络爬虫——项目实战(爬取糗事百科所有文章)_第2张图片
三、如果看我说的有点跳,不太清楚,那就来看看代码吧,代码不懂的可以看我上一篇文章Urlib模块介绍

#创建一个用户代理池数组
uapools=[
    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36",#360
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.117 Safari/537.36",#谷歌
    "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:60.0) Gecko/20100101 Firefox/60.0",
    "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.5",
    "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0",
]
#定义一个方法UA()
def UA():
    #创建一个urllib.request.build_opener()对象
    opener = urllib.request.build_opener()
    #每次从uapools中随机选取一个User-Agent
    thisua = random.choice(uapools)
    #以JSON格式(键值对)保存一个User-Agent
    ua = ("User-Agent",thisua)
    #将User-Agent赋值给opener.addheaders
    opener.addheaders=[ua]
    #将urllib.request的install_opener改成咱们的
    urllib.request.install_opener(opener)
    print("当前使用User-Agent:"+str(thisua))

sum = 0
for i in range(0,13):
    #从第一页便利到第十三页
    url = "https://www.qiushibaike.com/hot/page/"+ str(i+1) +"/"
    UA()
    #这回就可以快乐的爬取网站内容啦
    data = urllib.request.urlopen(url).read().decode("utf-8","ignore")
    string = '
.*?(.*?).*?
'
res = re.compile(string,re.S).findall(data) for j in range(0,len(res)): print(res[j]) print("-------------本页第" + str(j) + "条------------") sum = sum + 1 print("共有"+ str(sum) +"条文章")

来看下运行结果吧:看来糗事百科截至2020.2.7共有261条文章
网络爬虫——项目实战(爬取糗事百科所有文章)_第3张图片
哪里没有看懂,或者我有错误的地方,欢迎在评论区指出,谢谢大家!

你可能感兴趣的:(网络爬虫)