爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!

1. 文章背景:

鉴于这几天掉发情况,想着周末是多休息的啦,睡午觉的时候被微信滴滴来信给吵醒了,拿来一看,是那个女同学哦,简单看了一下,她主要表达的意思就是:“你能不能帮我 x x x x x x x ?(省略几百个字)”,身为一个男同学,你能说你不能嘛? m(o_ _)m

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第1张图片

2. 前言:

简单介绍一下 “需求” ,她希望我帮忙在 “自考365” 下载一批量的试题以及答案,如下图:https://www.zikao365.com/shiti/downlist_search.shtm

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第2张图片

3. 爬虫

了解到要实现的东西之后,就可以对网页进行解剖了,下面是具体步骤。

1.浏览器抓包

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第3张图片

2.了解传递的参数

在浏览器抓包中我们看不到实际传递了哪些参数(unable to decode value),因此这里可以使用 Fiddler 进行抓包或者使用下面的一种方式,任意一种都行,看你喜欢了…

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第4张图片

然后使用文本框粘贴刚才复制的内容:

curl 'https://www.zikao365.com/shiti/downlist_search.shtm' 
  -H 'Connection: keep-alive' 
  -H 'Cache-Control: max-age=0' 
  -H 'Upgrade-Insecure-Requests: 1' 
  -H 'Origin: https://www.zikao365.com' 
  -H 'Content-Type: application/x-www-form-urlencoded' 
  -H 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36' 
  -H 'Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9' 
  -H 'Sec-Fetch-Site: same-origin' 
  -H 'Sec-Fetch-Mode: navigate' 
  -H 'Sec-Fetch-User: ?1' 
  -H 'Sec-Fetch-Dest: document' 
  -H 'Referer: https://www.zikao365.com/shiti/downlist_search.shtm' 
  -H 'Accept-Language: zh-CN,zh;q=0.9,zh-TW;q=0.8,en-US;q=0.7,en;q=0.6' 
  --data-raw 'KeyWord=%C2%ED%BF%CB%CB%BC%D6%F7%D2%E5&monthHidden=%C8%AB%B2%BF&month=&yearHidden=%C8%AB%B2%BF&year=' 
  --compressed

留意一下倒数第二行 KeyWord=%C2%ED%BF%CB%CB%BC%D6%F7%D2%E5
结合浏览器抓包06了解到Keyword,这里其实就是上面搜索传递的内容啦!!!

3.如何传递分页

来到这里我们就能获取一页的列表数据了,那么获取第二页传递什么参数呢?点击 下一页 然后观察抓包情况https://www.zikao365.com/shiti/downlist_search.shtm?page=2
如上,url 发生了一点点变化了,添加了一个参数page,也就是说page=2代表第2页

翻页也不成问题了,那就看看如何获取内部的下载链接吧~

4.查找下载链接

随便点击一个链接进如试题详情页如下:https://www.zikao365.com/shiti/download-427-16827.html

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第5张图片

原本我打算高高兴兴的点击 “立即下载” 的,结果发现需要登录
真的是好事多磨啊~~

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第6张图片

摆在眼前只有三条路

  1. 找女同学要一个账号,点击一下看看什么情况
  2. 自己注册一个账号,但是太麻烦了
  3. 尝试绕开登录验证,直接下载(很明显我选择第三种)

因为一般 超链接 点击了都是直接跳转的,如果没有直接跳转,那就说明禁用了 href 属性,并且重写onclick事件,带着这种前提意识打开 F12 > Elements 观察源码

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第7张图片

OK~~ 来到这里对自考365的整体列表数据以及详情数据的下载文件都有了一个整体的了解,那就可以着手编码啦!!

代码实现较简单 我这里就全部贴出来

public static void main(String[] args) throws Exception {
    HttpClient httpClient = HttpClient.buildHttpClient();
    String urlTemplate = "https://www.zikao365.com/shiti/downlist_search.shtm?page=${page}&KeyWord=${KeyWord}";
    String url = null;
    for (int i = 1; i < 6; i++) {
        // 第一页开始
        url = urlTemplate.replace("${page}", i + "");
        url = url.replace("${KeyWord}", "%C2%ED%BF%CB%CB%BC%D6%F7%D2%E5");
        // 这里我竟然直接使用 GET 也是可以的 ( 我当时是忘记了抓包是 POST ,直接写了GET, 可以,那就更加方便了)
        Request request = httpClient.buildRequest(url).GET();
        Response response = request.execute(BodyHandlers.ofString(Charset.forName("gbk")));
        log.debug("response: [{}]", response.getBody());
        // 把html解析为一个Document
        Document document = Jsoup.parse(response.getBody());
        // 获取每一页的试题超链接
        Elements a = document.select(".bot.clearfix li > a");
        List hrefs = a.stream().map(v -> v.attr("href")).collect(Collectors.toList());
        for (String href : hrefs) {
            // 这里相当于点击进入具体的试题超链接
            response = httpClient.buildRequest(href).execute(BodyHandlers.ofString(Charset.forName("gbk")));
            String html = response.getBody();
            // 解析每一个试题内部的document
            document = Jsoup.parse(html);
            // 获取当前试题的标题
            String title = document.selectFirst(".main div > h1").text();
            // 手动字符串切割获取文件的path
            String[] scripts = StringUtils.substringsBetween(html, "");
            String path = Arrays.stream(scripts).filter(v -> v.contains("addClick") && v.contains("path")).findFirst().get();
            path = path.substring(path.indexOf("path") + 4);
            path = path.replaceAll("'", """);// 这里是为了统一 ' 转为 " , 避免个别页面使用的是' 如: var path = 'http://download.zikao365.com/shiti/19158.pdf'
            path = path.substring(path.indexOf(""") + 1);
            path = path.substring(0, path.indexOf("""));
            // 获取文件的后缀
            String suffix = path.substring(path.lastIndexOf("."));
            log.info("title:[{}], path: [{}], suffix: [{}]", title, path, suffix);
            // 执行下载文件到本地目录
            // 也可以使用 commons.io 的工具类下载, 如: FileUtils.copyURLToFile(new URL(path), Paths.get("C:UsershouyuDesktop马克思主义", title + suffix).toFile());
            httpClient.buildRequest(path).execute(BodyHandlers.ofFile(Paths.get("C:UsershouyuDesktop马克思主义", title + suffix)));
        }
    }
}

说明:这里列举一下使用到几个类库或者工具类

  • HttpClient:基于HttpURLConnection封装超级好用的HttpClient (就一个java文件,内含丰富的好用的api)
  • commons-lang3:比较常用的工具包
  • jsoup:一个 java 版的 css selector,用起来就像吃甜品一样。

4. 下载

日志:

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第8张图片

下载之后的文件如下,共108个:

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第9张图片

5. 最后

当我把这108个文件发给哪位那个女同学的时候…

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第10张图片

你想学呀 我叫你呀,从此就可以有正当理由聊了呀,你是否遇到你这样子的女同学呢 ?

爬虫onclick_爬虫让我再次在女同学面前长脸了~真棒!_第11张图片

学会了不 哈哈哈 源码地址

你可能感兴趣的:(爬虫onclick)