爬虫--[HttpClient]

爬虫技术可以获取互联网上开放的网页文档或其他文档,在java中HttpClient是比较好用的模拟请求和爬虫组件

下面看一个简单的职位爬去的实例:

1 下载HttpClient

   最新HttpClient版本是4.x,我们可以去官网下载,本章所用版本为:commons-httpclient-3.0.1.jar

   这是它的核心包,但是要编写一个完整的爬虫应用,它还需要依赖如下:

2 使用HttpClient进行模拟请求

   2.1 创建HttpClient对象:

         HttpClient httpClient=new HttpClient();

   2.2 通过get或post方式请求页面:

         GetMethod getMethod=new GetMethod("http://www.51job.com");

         假如是post请求,那么就得使用:

         PostMethod postMethod=new PostMethod("http://www.51job.com");

   2.3 执行请求:

         httpClient.executeMethod(getMethod);

   2.4 得到返回的网页:

        String html=  getMethod.getResponseBodyAsString();

        假如网页非常大时,需要使用:

        getMethod.getResponseBodyAsStream();

        它返回一个InputStream,需要我们使用流读取出来

    2.5 释放请求连接:

         getMethod.releaseConnection();

3.参数,Header头部信息,cookie

  3.1  对于post请求(比如模拟登录),有时候需要传入请求参数,需要先构造一个参数数组:

        NameValuePair[] vnps=new NameValuePair[X];

        NameValuePair nvp=new NameValuePair("username","admin");

        NameValuePair nvp=new NameValuePair("password","admin");

        postMethod.setRequestBody(vnps);

   3.2 Header头部信息

        有些服务器会根据头部信息来做一些业务逻辑,假如我们在模拟请求时没有传入这些头部信息,可能

        不会达到我们想要的效果。

        这些头部信息不是随便写的,而是根据某种http分析工具得出的(比如httpwatch)

         getMethod.setRequestHeader("Accept-Language","zh-CN,en-US;q=0.7,ja;q=0.3");

         getMethod.setRequestHeader("Accept","application/javascript, */*;q=0.8");

         getMethod.setRequestHeader("Referer","http://www.baidu.com/");

         。。。

    3.3  Cookie

          有时候模拟请求也需要带入cookie信息(特别是需要使用session的时候),cookie本身也是一种头部:

           method.setRequestHeader("Cookie", " H_PS_PSSID=2994_2776_1428_2975_2977_2250_2542_2701");

           这个cookie也不是随便写的,是通过httpwatch分析出来的

            有时候对于登录之后的网页抓取,我们往往需要把之前请求时产生的cookie也一直保存,此时可以先得到之前请求后产生的cookie:

             Cookie[] cookies = httpClient.getState().getCookies();

             String tmpcookies="";

             for (Cookie c : cookies) {

tmpcookies += c.toString() + ";";

              }

          然后传入这些cookie:

          method.setRequestHeader("Cookie", tmpcookies);

   核心代码如下:

import org.apache.commons.httpclient.HttpClient;
import org.apache.commons.httpclient.methods.GetMethod;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.nodes.TextNode;
import org.jsoup.select.Elements;


public class JobCrawl {

public static void main(String[] args)throws Exception {
//创建一个Http请求的客户端 
HttpClient httpClient=new HttpClient();
   //创建一个Get方法的请求
GetMethod getMethod=new GetMethod("http://search.51job.com/list/%2B,%2B,%2B,%2B,%2B,%2B,java,2,%2B.html?lang=c&stype=1&image_x=30&image_y=18");
//执行请求
httpClient.executeMethod(getMethod);
//返回网页信息
String html=getMethod.getResponseBodyAsString();
   //转码
html=new String(html.getBytes("iso8859-1"),"gb2312");
Document doc=Jsoup.parse(html);
Elements elements=doc.select("a.jobname");
   for(int i=0;i<elements.size();i++){
    Element ele=elements.get(i);
    String url=ele.attr("href");
    GetMethod gm=new GetMethod(url);
    httpClient.executeMethod(gm);
    String detailJob=gm.getResponseBodyAsString();
    detailJob=new String(detailJob.getBytes("iso8859-1"),"gb2312");
    Utils.createFile("D:\\Workspaces\\HttpClientTest\\doc",i+".html", detailJob);
    Document job_doc=Jsoup.parse(detailJob);
    //职位名称
    String jobname=job_doc.select("td.sr_bt").get(0).text();
   
    //公司名称
    Element company_a=job_doc.select("table.jobs_1 a").get(0);
    String companyname=company_a.text();
   
    //职位职能
    Element target=job_doc.select("strong:contains(职位职能)").get(0);
    System.out.println(target.nextSibling());
    TextNode targetNode=(TextNode)target.nextSibling();
    String targetName=targetNode.text();
    System.out.println("职位名称: "+jobname);
    System.out.println("公司名称: "+companyname);
    System.out.println("职位职能: "+targetName);
    System.out.println("=====================================");
    //System.out.println(ele.text()+" "+ele.attr("href"));
   }
}

}
import java.io.File;
import java.io.FileOutputStream;
import java.io.FileWriter;

public class Utils {

	public static void createFile(String directorpath, String fileName,
			String html) throws Exception {
		File director = new File(directorpath);
		if (!director.exists()) {
			director.mkdirs();
		}
		File f = new File(director.getAbsoluteFile() + File.separator
				+ fileName);
		System.out.println(fileName);
		if (!f.exists()) {
			f.createNewFile();
		}
		FileOutputStream fos = new FileOutputStream(f);
		FileWriter fw = new FileWriter(f);
		fw.write(new String(html));
		fw.close();
		fw = null;
		fos.close();
	}
}


你可能感兴趣的:(httpclient,爬虫)