JAVA爬取京东手机商品信息(亲测有效)

爬取京东手机商品信息(本人采用JAVA的MVEN工程)用时两天左右
最近喜欢上研究爬虫的问题了,发现还是很好用的,特别是这里运用了SpringBoot框架正是我最近在学的知识。
技术栈:SpringBoot、Mysql、JpaRepository、HttpClient、jsoup、commons-lang3
主要的文件结构如下
JAVA爬取京东手机商品信息(亲测有效)_第1张图片
dao //做数据库操作
pojo //定义需要提取的元素与数据库对应
service //元素的存储、查询方法
task //需要完成的任务
util //定义Http连接的方式
JAVA爬取京东手机商品信息(亲测有效)_第2张图片
通过上图可以看出爬虫的思路
首先创建连接,我这里通过HttpClient创建连接,其实Jsoup也可以为什么没有使用它呢,因为HttpClient支持线程管理等。

1、Util层

package cn.itcast.jd.util;

import org.apache.http.client.config.RequestConfig;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.impl.conn.PoolingHttpClientConnectionManager;
import org.apache.http.util.EntityUtils;
import org.springframework.stereotype.Component;

import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.OutputStream;
import java.util.UUID;

/**
 * @author kai
 * @date 2020/5/21 12:03
 */
@Component
public class HttpUtils {
    //建立连接池
    private PoolingHttpClientConnectionManager cm;
    public HttpUtils() {
    //线程池,进行线程管理
        this.cm =new PoolingHttpClientConnectionManager();

        this.cm.setMaxTotal(100);
        this.cm.setDefaultMaxPerRoute(10);
    }
    //根据请求地址下载页面数据
    public String doGetHtml(String url){
        CloseableHttpClient httpClient = HttpClients.custom().setConnectionManager(this.cm).build();
        HttpGet httpGet=new HttpGet(url);
        httpGet.setConfig(this.getConfig());
        //设置请求Request Headers中的User-Agent,告诉京东说我这是浏览器访问,您只需要做一个安静的美男子就够了
        httpGet.addHeader("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36");
        CloseableHttpResponse response=null;
        try {
            response = httpClient.execute(httpGet);
            if (response.getStatusLine().getStatusCode()==200){
                if (response.getEntity()!=null){
                    String content = EntityUtils.toString(response.getEntity(), "utf8");
                    return content;
                }
            }
        } catch (IOException e) {
            e.printStackTrace();
        }finally {
            if (response !=null){
                try {
                    response.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
        return "";
    }


    //下载图片,返回名称
    public String doGetImage(String url){
        CloseableHttpClient httpClient = HttpClients.custom().setConnectionManager(this.cm).build();
        HttpGet httpGet=new HttpGet(url);
        httpGet.setConfig(this.getConfig());
        CloseableHttpResponse response=null;
        try {
            response = httpClient.execute(httpGet);
            if (response.getStatusLine().getStatusCode()==200){
                if (response.getEntity()!=null){
                    //图片后缀
                    String extName = url.substring(url.lastIndexOf("."));
                    //重命名
                    String picName = UUID.randomUUID().toString()+extName;
                    //下载图片
                    OutputStream outputStream=new FileOutputStream(new File("D:\\image\\"+picName));
                    response.getEntity().writeTo(outputStream);
                    return picName;
                }
            }
        } catch (IOException e) {
            e.printStackTrace();
        }finally {
            if (response !=null){
                try {
                    response.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
        return "";
    }
    //设置请求信息
    private RequestConfig getConfig() {
        RequestConfig config=RequestConfig.custom()
                .setConnectTimeout(1000)  //创建连接的最长时间
                .setConnectionRequestTimeout(500) //获取连接的最长时间
                .setSocketTimeout(100000)  //数据传输的最长时间
                .build();
        return config;
    }
}

2 pojo层

定义需要存储的元素类型,与数据库匹配

package cn.itcast.jd.pojo;


import javax.persistence.*;
import java.util.Date;

/**
 * @author kai
 * @date 2020/5/21 9:43
 */
@Entity
@Table(name ="jd_item")//数据库表名
public class Item {
    @Id
    @GeneratedValue(strategy = GenerationType.IDENTITY)
    private Long id;
    private Long spu;
    private Long sku;
    private String title;
    private Double price;
    private String pic;
    private String url;
    private Date created;
    private Date updated;

    public Long getId() {
        return id;
    }

    public void setId(Long id) {
        this.id = id;
    }

    public Long getSpu() {
        return spu;
    }

    public void setSpu(Long spu) {
        this.spu = spu;
    }

    public Long getSku() {
        return sku;
    }

    public void setSku(Long sku) {
        this.sku = sku;
    }

    public String getTitle() {
        return title;
    }

    public void setTitle(String title) {
        this.title = title;
    }

    public Double getPrice() {
        return price;
    }

    public void setPrice(Double price) {
        this.price = price;
    }

    public String getPic() {
        return pic;
    }

    public void setPic(String pic) {
        this.pic = pic;
    }

    public String getUrl() {
        return url;
    }

    public void setUrl(String url) {
        this.url = url;
    }

    public Date getCreated() {
        return created;
    }

    public void setCreated(Date created) {
        this.created = created;
    }

    public Date getUpdated() {
        return updated;
    }

    public void setUpdated(Date updated) {
        this.updated = updated;
    }
}

3 dao层

用于操作数据库,只需要放入一个对象就可以存入数据库,不需要你再去用JDBC写SQL语句了。

package cn.itcast.jd.dao;

import cn.itcast.jd.pojo.Item;
import org.springframework.data.jpa.repository.JpaRepository;

/**
 * @author kai
 * @date 2020/5/21 10:01
 */
public interface ItemDao extends JpaRepository<Item,Long> {

}

4 Service层

服务层,用来做存储,和查询操作

package cn.itcast.jd.service;

import cn.itcast.jd.pojo.Item;

import java.util.List;

/**
 * @author kai
 * @date 2020/5/21 10:04
 */
public interface ItemService {

    public void save(Item item);

    public List<Item> findAll(Item item);
}

接口的具体实现

package cn.itcast.jd.service.impl;

import cn.itcast.jd.dao.ItemDao;
import cn.itcast.jd.pojo.Item;
import cn.itcast.jd.service.ItemService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.domain.Example;
import org.springframework.stereotype.Service;

import java.util.List;

/**
 * @author kai
 * @date 2020/5/21 10:09
 */
@Service
public class ItemServiceImpl implements ItemService {
    @Autowired
    private ItemDao itemDao;
    @Override
    public void save(Item item) {
        this.itemDao.save(item);
    }

    @Override
    public List<Item> findAll(Item item) {
        //声明查询条件
        Example<Item> example=Example.of(item);
        List<Item> list = this.itemDao.findAll(example);

        return list;
    }
}

5 task层

用与解析查询的html文件,使用的是Jsoup,省去了复杂的正则表达式识别

package cn.itcast.jd.task;

import cn.itcast.jd.pojo.Item;
import cn.itcast.jd.service.ItemService;
import cn.itcast.jd.util.HttpUtils;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.apache.commons.lang3.StringUtils;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;

import java.util.Date;
import java.util.List;

/**
 * @author kai
 * @date 2020/5/21 14:56
 */
@Component
public class ItemTask {

    @Autowired
    private HttpUtils httpUtils;

    @Autowired
    private ItemService itemService;

    private static final ObjectMapper MAPPER = new ObjectMapper();

    //  当下载任务完成后,间隔多长时间进行下一次的任务
    @Scheduled(fixedDelay =1000*1000 )
    public void itemTask()  throws Exception{

        //  声明需要解析的初始地址
        String url = "https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&wq=%E6%89%8B%E6%9C%BA&s=104&click=1&page=";

        //  遍历页面对手机的搜索进行遍历结果
        for (int i = 1; i < 10; i=i+2) {
            String html = this.httpUtils.doGetHtml(url+i);
            //  解析页面,获取商品数据并存储
            if (html !=null){
                this.parse(html);
            }

        }
        System.out.println("手机数据抓取完成!!!");
    }

    /**
     * 解析页面,获取商品数据并存储
     * @param html
     */
    private void parse(String html) throws Exception {
        //  解析HTML获取Document
        Document doc = Jsoup.parse(html);
        //  获取spu
        Elements spuEles = doc.select("div#J_goodsList > ul > li");
        //  遍历获取spu数据
        for (Element spuEle : spuEles) {
            //  获取spu
            String attr = spuEle.attr("data-spu");
            long spu = Long.parseLong(attr.equals("")?"0":attr);
            //  获取sku信息
            Elements skuEles = spuEle.select("li.ps-item");
            for (Element skuEle : skuEles) {
                //  获取sku
                long sku = Long.parseLong(skuEle.select("[data-sku]").attr("data-sku"));
                //  根据sku查询商品数据
                Item item = new Item();
                item.setSku(sku);
                List<Item> list = this.itemService.findAll(item);
                if (list.size()>0){
                    //如果商品存在,就进行下一个循环,该商品不保存,因为已存在
                    continue;
                }
                //  设置商品的spu
                item.setSpu(spu);

                //  获取商品的详情信息
                String itemUrl = "https://item.jd.com/"+sku+".html";
                item.setUrl(itemUrl);

                //  商品图片
                String picUrl = skuEle.select("img[data-sku]").first().attr("data-lazy-img");
                //	图片路径可能会为空的情况
                if(!StringUtils.isNotBlank(picUrl)){
                    picUrl =skuEle.select("img[data-sku]").first().attr("data-lazy-img-slave");
                }
                picUrl ="https:"+picUrl.replace("/n7/","/n1/");	//	替换图片格式
                String picName = this.httpUtils.doGetImage(picUrl);
                item.setPic(picName);

                //  商品价格
                String priceJson = this.httpUtils.doGetHtml("https://p.3.cn/prices/mgets?skuIds=J_" + sku);
                double price = MAPPER.readTree(priceJson).get(0).get("p").asDouble();
                item.setPrice(price);

                //  商品标题
                String itemInfo = this.httpUtils.doGetHtml(item.getUrl());
                String title = Jsoup.parse(itemInfo).select("div.sku-name").text();
                item.setTitle(title);

                //  商品创建时间
                item.setCreated(new Date());
                //  商品修改时间
                item.setUpdated(item.getCreated());

                //  保存商品数据到数据库中
                this.itemService.save(item);

            }
        }
    }

}


6 应用

package cn.itcast.jd;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.scheduling.annotation.EnableScheduling;

/**
 * @author kai
 * @date 2020/5/21 10:15
 */
@SpringBootApplication
        //开启定时任务
@EnableScheduling
public class Application {
    public static void main(String[] args) {
        SpringApplication.run(Application.class,args);
    }
}

配置文件部分我使用的是Mysql数据库,注意更新Driver包

#DE config
spring.datasource.url=jdbc:mysql://localhost:3306/crawler
spring.datasource.username=root
spring.datasource.password=
spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver
spring.jpa.open-in-view=false
#JPA config
spring.jpa.database=mysql
spring.jpa.show-sql=true


记得提前在数据库中建库crawler,以及建表jd_item、表的列属性

CREATE TABLE `jd_item` (
  `id` bigint NOT NULL AUTO_INCREMENT COMMENT '主键id',
  `spu` bigint DEFAULT NULL COMMENT '商品集合id',
  `sku` bigint DEFAULT NULL COMMENT '商品最小品类单元id',
  `title` varchar(100) DEFAULT NULL COMMENT '商品标题',
  `price` bigint DEFAULT NULL COMMENT '商品价格',
  `pic` varchar(200) DEFAULT NULL COMMENT '商品图片',
  `url` varchar(100) DEFAULT NULL COMMENT '商品详细地址',
  `created` datetime DEFAULT NULL COMMENT '创建时间',
  `updated` datetime DEFAULT NULL COMMENT '更新时间',
  PRIMARY KEY (`id`),
  KEY `sku` (`sku`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=528 DEFAULT CHARSET=utf8 COMMENT='京东商品表';

初体验爬虫,大佬轻喷,有问题可以下方留言讨论,谢谢

bug报错:

①经常会报告连接异常,可能是网速太慢了,超出了最长连接时间
②long spu = Long.parseLong(spuEle.attr(“data-spu”));直接写这个语句也会报类型转换异常,字符串为空是不知道怎么转换,所以我修改为

String attr = spuEle.attr("data-spu");
long spu = Long.parseLong(attr.equals("")?"0":attr);

③url中有中文,解析不出来。这里需要调整你的本地IDE编码格式,然后重启IDE,或许就没问题了。可能还有一些别的问题,自己问问度娘基本都可以解决。
欢迎讨论bug

你可能感兴趣的:(JAVA,爬虫,API)