python爬虫学习小组 任务1

任务1.1 学习get与post请求

Requests库 是python的第三方库,是目前公认的爬取网页最好的工具。

1.1.1 Requests库有7个主要的方法:

  1. requests.request()
    构造一个请求,支撑以下6个方法的基础方法
  2. requests.get()
    获取HTML页面的主要方法,对应于HTTP的GET
  3. requests.head()
    获取HTML页面头信息的方法,对应于HTTP的HEAD
  4. requests.post()
    向HTML页面提交POST请求的方法,对应于HTTP的POST
  5. requests.put()
    向HTML页面提交PUT请求的方法,对应与HTTP的PUT
  6. requests.patch()
    向HTML页面提交局部修改请求,对应于HTTP的PATCH
  7. requests.delete()
    向HTML页面提交删除请求,对应于HTTP的DELETE

1.1.2 Requests库的get方法

获得一个网页最简单的方法就是一行代码:

>>>  r = requests.get(url)


Response对象常用的5个属性

  1. r.status_code
    HTTP请求的返回状态,200表示连接成功,404表示失败
  2. r.text
    HTTP响应内容的字符串形式,即url对应的页面内容
  3. r.encoding
    从HTTP header中猜测的响应内容的编码方式
  4. r.apparent_encoding
    从内容中分析出的响应内容编码方式(备选编码方式)
  5. r.content
    HTTP相应内容的二进制形式
>>> r = requests.get("http://www.baidu.com")
>>> r.status_code
200
>>> r.text
'\r\n ç\x99¾åº¦ä¸\x80ä¸\x8bï¼\x8cä½\xa0å°±ç\x9f¥é\x81\x93  
\r\n' >>> r.encoding = "utf-8" >>> r.text '\r\n 百度一下,你就知道

关于百度 About Baidu

©2017 Baidu 使用百度前必读  意见反馈 京ICP证030173号 

\r\n' >>>

1.1.3 爬取网页的通用代码框架

Requests库的7种异常
  1. requests.ConnectionError
    网络连接错误异常,如DNS查询失效、拒绝连接等
  2. requests.HTTPError
    HTTP错误异常
  3. requests.URLRequired
    URL缺失异常
  4. requests.ToomanyRedirects
    超过最大重定向次数,产生重定向异常
  5. requests.ConnectTimeout
    连接远程服务器超时异常
  6. requests.Timeout
    请求URL超时,产生超时异常
  7. r.raise_for_status()
    如果不是200,产生异常requests.HTTPErrer
通用代码框架
def getHTMLText(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()  #如果状态不是200,引发HTTPError异常
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return "产生异常"

任务1.2 正则表达式

理论还在学习,待补充。。。

爬取豆瓣电影250

参考代码如下:

# -*- coding:utf-8 -*-
import requests
from bs4 import BeautifulSoup
import re
import time
import sys

def getHTMLText(url,k):
    try:
        if(k==0):kw={}
        else: kw={'start':k,'filter':''}
        r = requests.get(url,params=kw,headers={'User-Agent': 'Mozilla/4.0'})
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        print("Failed!")

def getData(html):
    soup = BeautifulSoup(html, "html.parser")
    movieList=soup.find('ol',attrs={'class':'grid_view'})#找到第一个class属性值为grid_view的ol标签
    moveInfo=[]
    for movieLi in movieList.find_all('li'):#找到所有li标签
        data = []
        #得到电影名字
        movieHd=movieLi.find('div',attrs={'class':'hd'})#找到第一个class属性值为hd的div标签
        movieName=movieHd.find('span',attrs={'class':'title'}).getText()#找到第一个class属性值为title的span标签
                                                                           #也可使用.string方法
        data.append(movieName)

        #得到电影的评分
        movieScore=movieLi.find('span',attrs={'class':'rating_num'}).getText()
        data.append(movieScore)

        #得到电影的评价人数
        movieEval=movieLi.find('div',attrs={'class':'star'})
        movieEvalNum=re.findall(r'\d+',str(movieEval))[-1]
        data.append(movieEvalNum)

        # 得到电影的短评
        movieQuote = movieLi.find('span', attrs={'class': 'inq'})
        if(movieQuote):
            data.append(movieQuote.getText())
        else:
            data.append("无")

        print(outputMode.format(data[0], data[1], data[2],data[3],chr(12288)))

#将输出重定向到txt文件
output=sys.stdout
outputfile=open("moviedata.txt",'w',encoding='utf-8')
sys.stdout=outputfile


outputMode= "{0:{4}^20}\t{1:^10}\t{2:^10}\t{3:{4}<10}"
print(outputMode.format('电影名称', '评分', '评论人数', '短评', chr(12288)))
basicUrl='https://movie.douban.com/top250'
k=0
while k<=225:
    html=getHTMLText(basicUrl,k)
    time.sleep(2)
    k+=25
    getData(html)


outputfile.close()
sys.stdout=output

运行结果:

python代码参考链接:https://blog.csdn.net/linzch3/article/details/62444947

你可能感兴趣的:(python爬虫学习小组 任务1)