java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址

1. 目标

  1. 使用webmagic爬取动作电影列表信息
    java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第1张图片

  2. 爬取电影《海王》详细信息【电影名称电影迅雷下载地址列表
    java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第2张图片

2. 爬取最新动作片列表

获取电影列表页面数据来源地址

访问http://m.ady01.com/rs/film/list/1/1,F12开发者模式中找到页面数据来源地址
java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第3张图片

地址是:http://m.ady01.com/rs/film/listJson/1/1

访问:http://m.ady01.com/rs/film/listJson/1/1

java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第4张图片

抓取列表信息

  1. 使用git拉取代码:https://gitee.com/likun_557/java-pachong 这个代码是在第一讲中创建的,需要了解的朋友可以查看第一讲的内容"《java爬虫系列第一讲-爬虫入门》"

  2. 将代码导入idea中

java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第5张图片

  1. 新建包com.ady01.demo2.filmlist,本次示例代码全部放在该包中

  2. 列表页面数据来源http://m.ady01.com/rs/film/listJson/1/1,是一个json数据

  3. 根据http://m.ady01.com/rs/film/listJson/1/1中的数据格式,我们先分析一下

    • 最外层是一个分页的类
    • dataList是一个集合,内部每项是一个电影资源的信息
  4. 创建com.ady01.demo2.filmlist.PageModel类,用于保存分页电影信息

    package com.ady01.demo2.filmlist;
    
    import lombok.*;
    
    import java.io.Serializable;
    import java.util.List;
    
    /**
     * description:分页对象 
    * time:2019-04-21 13:46
    * author: 微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注! */ @Getter @Setter @NoArgsConstructor @ToString public class PageModel implements Serializable { private static final long serialVersionUID = 1L; /** * 每页显示数量 */ private long pageSize; /** * 当前页行的开始行的索引,如1,2,3.... */ private long startIndex; /** * 当前页行的结束索引 */ private long endIndex; /** * 当前页 */ private long currentPage; /** * 上一页索引 */ private long prePage; /** * 下一页索引 */ private long nextPage; /** * 总记录数 */ private long count; /** * 是否有上一页 */ private boolean hasPrePage; /** * 是否有下一页 */ private boolean hasNextPage; /** * 总页数 */ private long pageCount; /** * 数据集合 */ private List dataList; }
  5. 创建com.ady01.demo2.filmlist.FilmModel类,用于保存电影信息

    package com.ady01.demo2.filmlist;
    
    import lombok.Getter;
    import lombok.NoArgsConstructor;
    import lombok.Setter;
    import lombok.ToString;
    
    import java.io.Serializable;
    import java.util.Map;
    
    /**
     * description:电影信息 
    * time:2019/4/21 12:35
    * author:微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注! */ @Setter @Getter @NoArgsConstructor @ToString public class FilmModel implements Serializable{ private static final long serialVersionUID = 1L; /** * 编号 */ private java.lang.Long id; /** * 片名,完整名称,不包含无关文字 */ private java.lang.String name; /** * 片名全拼音(小写),如英雄:yingxiong */ private java.lang.String full_spell; /** * 片名简拼(小写),如英雄:yx */ private java.lang.String short_spell; /** * 标题,可能和片名不同,里面有可能包含推广相关文字 */ private java.lang.String title; /** * 关键词,多个之间用逗号隔开 */ private java.lang.String keywords; /** * 描述 */ private java.lang.String description; /** * 1:电影,2:自定义专辑系列 */ private java.lang.Integer type; /** * 来源站点 */ private java.lang.Long site_id; /** * 来源页面 */ private java.lang.String source_url; /** * 简介,关联t_content_id */ private java.lang.Long content_id; /** * 评分 */ private java.lang.String score; /** * 来源页面中资源唯一标志,用于去重使用 */ private java.lang.String source_uid; /** * 创建时间 */ private java.lang.Long create_time; /** * 发布时间 */ private java.lang.Long pub_time; /** * 最后更新时间 */ private java.lang.Long update_time; /** * 状态信息 */ private java.lang.Integer status; /** * 版本号 */ private java.lang.Long version; /** * 扩展数据 */ private Map extData; }
  6. 创建列表数据采集器com.ady01.demo2.filmlist.FilmListPageProcessor

    package com.ady01.demo2.filmlist;
    
    import com.ady01.demo2.filmdetail.FilmDetailModel;
    import com.ady01.demo2.filmdetail.FilmDetailPageProcessor;
    import com.alibaba.fastjson.JSON;
    import lombok.extern.slf4j.Slf4j;
    import us.codecraft.webmagic.Page;
    import us.codecraft.webmagic.Request;
    import us.codecraft.webmagic.Site;
    import us.codecraft.webmagic.Spider;
    import us.codecraft.webmagic.processor.PageProcessor;
    
    /**
     * description:电影列表页面数据采集器 
    * time:2019/4/21 12:40
    * author:微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注! */ @Slf4j public class FilmListPageProcessor implements PageProcessor { public static PageModel collector(String url) { return new FilmListPageProcessor(url).collect().getPageModel(); } private Site site = Site.me().setRetryTimes(3).setSleepTime(100).setTimeOut(10000); //需要采集的页面 private String url; //采集的数据 private PageModel pageModel; public FilmListPageProcessor(String url) { this.url = url; } public FilmListPageProcessor collect() { Request request = new Request(url); Spider.create(this).thread(1).addRequest(request).run(); return this; } @Override public void process(Page page) { String text = page.getRawText(); log.info("列表页面数据:{}", text); this.pageModel = JSON.parseObject(text, PageModel.class); } @Override public Site getSite() { return this.site; } public PageModel getPageModel() { return pageModel; } public void setPageModel(PageModel pageModel) { this.pageModel = pageModel; } }
  7. 测试用例com.ady01.demo2.filmlist.FilmListPageProcessorTest

    package com.ady01.demo2.filmlist;
    
    import lombok.extern.slf4j.Slf4j;
    import org.junit.Test;
    
    /**
     * description
    * time:2019/4/21 13:59
    * author:微信微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注!,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据) */ @Slf4j public class FilmListPageProcessorTest { @Test public void collect() { String url = "http://m.ady01.com/rs/film/listJson/1/1"; PageModel collector = FilmListPageProcessor.collector(url); log.info("\n\n\n列表页面数:{}", collector); } }
  8. 运行 com.ady01.demo2.filmlist.FilmListPageProcessorTest#collect() 方法,结果如下:

java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第6张图片

3. 爬取电影《海王》迅雷地址

我们以《海王》页面(http://m.ady01.com/rs/film/detail/46612)为例,来采集详情页的信息

需要采集的信息有:电影名称、描述信息、电影下载地址列表

java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第7张图片

  1. 创建com.ady01.demo2.filmdetail.FilmDetailModel类,用于封装电影详细信息

    package com.ady01.demo2.filmdetail;
    
    import lombok.Getter;
    import lombok.Setter;
    import lombok.ToString;
    
    import java.io.Serializable;
    import java.util.List;
    
    /**
     * description:电影详细信息 
    * time:2019/4/21 13:18
    * author:微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注! */ @Setter @Getter @ToString public class FilmDetailModel implements Serializable { private static final long serialVersionUID = 1L; /** * 编号 */ private java.lang.Long id; /** * 片名,完整名称,不包含无关文字 */ private java.lang.String title; /** * 下载地址列表 */ private List downList; }
  2. 创建详情页采集器com.ady01.demo2.filmdetail.FilmDetailPageProcessor

    package com.ady01.demo2.filmdetail;
    
    import lombok.extern.slf4j.Slf4j;
    import us.codecraft.webmagic.Page;
    import us.codecraft.webmagic.Request;
    import us.codecraft.webmagic.Site;
    import us.codecraft.webmagic.Spider;
    import us.codecraft.webmagic.processor.PageProcessor;
    import us.codecraft.webmagic.selector.Selectable;
    
    import java.util.List;
    import java.util.Objects;
    import java.util.stream.Collectors;
    
    /**
     * description:电影详情页采集器,采集电影详细信息 
    * time:2019/4/21 12:40
    * author:微信公众号:路人甲Java,专注于java技术分享(爬虫、分布式事务、异步消息服务、任务调度、分库分表、大数据等),喜欢请关注! */ @Slf4j public class FilmDetailPageProcessor implements PageProcessor { public static FilmDetailModel collector(long film_id) { return new FilmDetailPageProcessor(film_id).collect().getFilmDetailModel(); } private Site site = Site.me().setRetryTimes(3).setSleepTime(100).setTimeOut(10000); //电影资源id private long film_id; //采集的数据 private FilmDetailModel filmDetailModel; public FilmDetailPageProcessor(long film_id) { this.film_id = film_id; } public FilmDetailPageProcessor collect() { Request request = new Request(String.format("http://m.ady01.com/rs/film/detail/%s", this.film_id)); Spider.create(this).thread(1).addRequest(request).run(); return this; } @Override public void process(Page page) { String text = page.getRawText(); log.info("列表页面数据:{}", text); this.filmDetailModel = new FilmDetailModel(); //电影标题 String title = page.getHtml().$("span[class='film_title']","text").get(); this.filmDetailModel.setId(this.film_id); this.filmDetailModel.setTitle(title); //电影下载地址downList List downNodes = page.getHtml().$("div.film_downurl_txt").nodes(); if (Objects.nonNull(downNodes)) { List downList = downNodes.stream().map(item -> item.$("div", "text").get()).collect(Collectors.toList()); this.filmDetailModel.setDownList(downList); } } @Override public Site getSite() { return this.site; } public FilmDetailModel getFilmDetailModel() { return filmDetailModel; } public void setFilmDetailModel(FilmDetailModel filmDetailModel) { this.filmDetailModel = filmDetailModel; } }
  3. 创建测试用例com.ady01.demo2.filmdetail.FilmDetailPageProcessorTest

    package com.ady01.demo2.filmdetail;
    
    
    import com.ady01.demo2.filmlist.FilmListPageProcessor;
    import com.ady01.demo2.filmlist.PageModel;
    import com.ady01.util.FrameUtil;
    import lombok.extern.slf4j.Slf4j;
    import org.junit.Test;
    
    @Slf4j
    public class FilmDetailPageProcessorTest {
        @Test
        public void collect() {
            long film_id = 46612L;
            FilmDetailModel filmDetailModel = FilmDetailPageProcessor.collector(46612L);
            log.info("\n\n\n电影《海王》详情:{}", FrameUtil.json(filmDetailModel, true));
        }
    
    }
  4. 运行测试用例com.ady01.demo2.filmdetail.FilmDetailPageProcessorTest#collect()

java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第8张图片

4. 总结

  1. webmagic中支持xpath、$选择器的方式获取页面中的元素信息,使用非常方便,如果你们对jquery比较熟悉,可以直接使用类似于jquery选择器的语法来解析整个页面的内容;还有xpath的语法,后期会有专门讲解xpath的语法,敬请关注。
  2. 有问题的可以留言。
  3. 下期咱们一起来抓取极客时间上面的课程信息
  4. 爱电影这个网站就是用webmagic做的,内部包含自动采集功能,每天自动采集大量大于资源,爬虫系列完结之后,将把整个网站的源码风险给大家,资源会在公众号中发布,可以提前关注一下公众号【路人甲Java】

可以关注公众号:路人甲Java,获取年薪50万课程,获取最新文章。
java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址_第9张图片

你可能感兴趣的:(java爬虫系列第二讲-爬取最新动作电影《海王》迅雷下载地址)