用python写爬虫-2.4requests库之session验证码

终于写到最后一个了,session,session我用的不多,一般只用在登陆和带验证码的情况,昨天在邦购买了一件衣服,发现邦购网挺适合用session登陆。
主页点击‘我的邦购’,为啥是这个,答,这个比较方便看出你到底登陆成功没有。
还是先上登陆网址。https://passport.banggo.com/CASServer/login?service=http%3A%2F%2Fbgact.banggo.com%2Flogin.shtml%3Fr_url%3Dhttp%25253A%25252F%25252Fuser.banggo.com%25252F
看得出网址这已经把跳转之后的网址带到了‘?’后。
还是F12-network,发现还是get

用python写爬虫-2.4requests库之session验证码_第1张图片
image.png

前面说了这种要带查询信息的一般不都是post,别急,你随便输一下账号密码验证码,就会发现方法已然变化成post。
用python写爬虫-2.4requests库之session验证码_第2张图片
image.png

再往下看看form data。
用python写爬虫-2.4requests库之session验证码_第3张图片
image.png

一般来说form data是login页面中input标签的内容,比如像显性的账号密码,也有隐性的,比如这次lt我觉得是控制爬虫的吧,这种隐性的input一般都带着hidden属性,也就是说在页面上是看不见的。
form data 我们需要相应创造的dict的key是input标签的name属性,value是input标签的name属性。比如


用python写爬虫-2.4requests库之session验证码_第4张图片
image.png

可以看到这次的post data有几个信息需要特殊处理一下。
一个是vcode,这一看就是验证码,还不会opencv之类啊,没关系,我们把图片下下来,然后手工输入就行了。
另一个是lt,这个感觉不像是每次都一样的,需要从这个登陆网页抽取一下。
其他的看起来,把信息复制下来就好。

这里就可以说session的作用了,验证码每一次刷新都是不一样的,假如你先用一个get把这一次的验证码找到,然后在用post把验证码提交上去就会发现额,验证码不对,因为post跟下载验证码get的是两次请求。session就能把一次请求分步走,先get,再把get到的验证码放进form data里再提交。
就像前面说的,一个页面多次鼠标的行动用session包装起来。

还是用代码看看吧

import requests
import shutil
from pyquery import PyQuery as pq
def banggo():
    session = requests.session()
    url = 'https://passport.banggo.com/CASServer/login?service=http%3A%2F%2Fbgact.banggo.com%2Flogin.shtml%3Fr_url%3Dhttp%25253A%25252F%25252Fuser.banggo.com%25252Fmember%25252FOrder'
    res = session.get(url)
    file = pq(res.text)
    lt =file('input').eq(-4).attr('value')

    imgurl = 'https://passport.banggo.com/CASServer//custom/loginCode.do'
    imgre = session.get(imgurl,stream =True)
    f = open('yzm.png', 'wb')
    shutil.copyfileobj(imgre.raw, f)
    f.close()
    vocde = input('input:')

    data = {
    'username':自己的账号,
    'password':自己的密码,
    'vcode':vocde,
    'rememberUsername':'on',
    'lt':lt,
    '_eventId':'submit',
    'loginType':'1',
    'lastIp':自己的ip
            }
    re = session.post(url,data=data)
    print(re.text)

解释一下代码。
session = requests.session()
这句是关键,创建一个session,以后都通过这个session来get,post,让我们整个过程是连续的。
lt =file('input').eq(-4).attr('value')
这句是找name=lt的input标签相对应的value值,eq(-4)是我发现它在倒数第4个

然后是处理验证码,逻辑是先下载后手输, shutil.copyfileobj(imgre.raw, f)复制到文件f。
img的文件地址可以有两个方法得到,一个是在login网页上抓取,在找到img的element,对于每次都变动的地址的就需要先找到这个网址,


用python写爬虫-2.4requests库之session验证码_第5张图片
image.png

我发现它的网址一直都是这个,所以从network-img里找到网址。


用python写爬虫-2.4requests库之session验证码_第6张图片
image.png

还可以从preview看看是那一张图。

最后组装一下data,用post方法就能成功登陆了呢。

你可能感兴趣的:(用python写爬虫-2.4requests库之session验证码)