Java爬虫(三)-- httpClient 模拟登录 + cookie 登录状态管理

前言

前面两章内容阐述了httpClient怎么模拟Http请求和如何解析页面。

接下去会讲在一些实战中遇到的问题。

现在回到我的开发摸索之路,之前说到我所爬取的网页是某个险企提供给合作公司的一个页面,通过账号登录然后爬取指定的数据。

这里就出现本章要写的主题了。模拟登录。

Java爬虫(三)-- httpClient 模拟登录 + cookie 登录状态管理_第1张图片
image

我首先确认登录验证的请求所需要携带的参数:

Java爬虫(三)-- httpClient 模拟登录 + cookie 登录状态管理_第2张图片
image

可以看到,登录需要验证码,并且密码不是明文传输的,而是通过前端js加密过后产生的,并且每次都会不一样,所以要模拟这个加密的过程。还有一些别的参数,是可以在页面上解析出来的。

实战

我觉得里面困难的地方是验证码识别,和怎么模拟前端js加密。

验证码

关于验证码识别的解决方案,有很多种,复杂的可以用图像识别算法,有钱的可以直接上接口,由于我只是想先将功能实现,所以就采用了最简单的方式,把验证码图像下载到本地,手动输入。

Java爬虫(三)-- httpClient 模拟登录 + cookie 登录状态管理_第3张图片
image

这里面要提一下,httpClient有自动管理cookie的功能,什么意思呢,就是说你只要用httpClient模拟登录成功之后,你的后续操作就是无须再登录了,只需要隔一段时间再去用这个cookie请求一次,保持这个登录的cookie不失效即可。

访问登录页面之后,去登录页面中解析出验证码图片的src,或者是模拟页面重新发起一次请求验证码的请求,得到服务器端返回的编码过后的imgSrc,一般是base64编码的,然后通过解码下载到本地,具体代码如下。


String imgStr = "..."; // 可以是从页面解析,也可以是模拟刷新验证码请求得到的
// 这里也需要注意,要先截去前缀
SpiderHttpUtils.GenerateImage(StringUtils.substringAfter(codeImgSrc, "data:image/jpg;base64,"));

public static boolean GenerateImage(String imgStr)
    {//对字节数组字符串进行Base64解码并生成图片
        if (imgStr == null) //图像数据为空
            return false;
        BASE64Decoder decoder = new BASE64Decoder();
        try
        {
            //Base64解码
            byte[] b = decoder.decodeBuffer(imgStr);
            for(int i=0;i< b.length;++i)
            {
                if(b[i]< 0)
                {//调整异常数据
                    b[i]+=256;
                }
            }
            //生成jpeg图片
            String imgFilePath = "...";//新生成的图片
            OutputStream out = new FileOutputStream(imgFilePath);
            out.write(b);
            System.out.println("生成成功");
            out.flush();
            out.close();
            return true;
        }
        catch (Exception e)
        {
            return false;
        }
    }

js模拟加密

至于怎么模拟js加密,我用了一个java自带的ScriptEngine,内容较多,在下一章具体介绍吧。

模拟登录,保持登录状态

登录所需的五个参数appIdusernamepasswordrandCodeIdcodeclientCallbackusername已知,appIdrandCodeId可从登录页面解析出来,code手动输入,clientCallback为空,至此参数已经都可以模拟出来。

之后只需要按照表单提交的方式模拟,上一章有提到的,就登录成功了。

但是登录成功之后不代表就结束了,因为我要实现的是多账号轮流抓取,并且一次登录成功之后接下去就通过cookie机制来保持登录状态。

也就是说,每个账号登录成功之后的cookie都要保存下来,接下去涉及到了cookie管理的知识。

cookie管理

httpClient里默认自动管理cookie,如果想要提取cookie或者发送自定义的cookie,则需要在httpClient对象初始化时设置一个默认的cookiestore来保存。如下图

public class SpiderHttpUtils {

    private static CloseableHttpClient httpClient;

    private static BasicCookieStore cookieStore;

    static {
        cookieStore  = new BasicCookieStore();
        httpClient = HttpClients.custom()
                .setDefaultCookieStore(cookieStore)
                .build();
    }
}

常见的命令

    // get all cookies
    List list = cookieStore.getCookies();
    System.out.println("All Cookies:");
        for (Cookie cookie : list) {
        System.out.println(cookie);
    }

    // 清除所有cookie
    cookieStore.clear();

    //  发送自定义cookie:(new了一个对象之后可以设置多种属性。)
    BasicClientCookie cookie = new BasicClientCookie("name", "value");
    // new a cookie
    cookie.setDomain("domain");
    cookie.setExpiryDate(new Date());
    // set the properties of the cookie
    cookieStore.addCookie(cookie);

你可能感兴趣的:(Java爬虫(三)-- httpClient 模拟登录 + cookie 登录状态管理)