httpclient是Apache下的一个用于执行http网络访问的一个工具包。
大致流程:新建一个httpclient对象->新建一个httpRequest对象->用httpclient去执行->得到一个response->通过解析这个response来获取自己所需要的信息。
一、新建httpClient对象:
在httpClient4.5中,初始化的方式已经和以前版本有一些不同。
有大致以下几种方式:
static CloseableHttpClient client = HttpClients.createDefault(); //最好使用static修饰,以保证用同一个client对象处理请求,以保存进度
static CloseableHttpClient httpClient=HttpClients.custom().build();
此二种都是新建一个默认的httpClient对象。可以在第二种方法里添加一些网络访问选项设置。
/** * initialize a instance of the httpClient depending on your own request */ private static CloseableHttpClient getInstanceClient() { CloseableHttpClient httpClient; StandardHttpRequestRetryHandler standardHandler = new StandardHttpRequestRetryHandler(5, true); HttpRequestRetryHandler handler = new HttpRequestRetryHandler() { @Override public boolean retryRequest(IOException arg0, int retryTimes, HttpContext arg2) { if (arg0 instanceof UnknownHostException || arg0 instanceof ConnectTimeoutException || !(arg0 instanceof SSLException) || arg0 instanceof NoHttpResponseException) { return true; } if (retryTimes > 5) { return false; } HttpClientContext clientContext = HttpClientContext.adapt(arg2); HttpRequest request = clientContext.getRequest(); boolean idempotent = !(request instanceof HttpEntityEnclosingRequest); if (idempotent) { // 如果请求被认为是幂等的,那么就重试。即重复执行不影响程序其他效果的 return true; } return false; } }; HttpHost proxy = new HttpHost("127.0.0.1", 80);// 设置代理ip DefaultProxyRoutePlanner routePlanner = new DefaultProxyRoutePlanner(proxy); httpClient = HttpClients.custom().setRoutePlanner(routePlanner).setRetryHandler(handler) .setConnectionTimeToLive(1, TimeUnit.DAYS).setDefaultCookieStore(cookieStore).build(); return httpClient; }
在该代码中分别设置了网络代理,重试处理,对于请求的keepalive时间,指定cookiestore用于保存cookie。
retryHandler:代码里给了两种方式。第一个是简便的用于设置重试,第一个参数为最大重试次数,第二个参数为请求在幂等情况下是否重试。第二种方式详细的规定了在发生了什么exception个下重试,以及幂等和重试次数下的重试情况。
routePlanner:httpClient支持代理。新建一个httphost对象传给一个routeplanner对象即可。httphost的构造方法中可以指定代理ip和端口
CookieStore:需要预先新建一个cookieStore对象。初始化方式如下:
CookieStore cookieStore = new BasicCookieStore();
二、执行get请求:
先上代码
/** * used to get the html code from the url */ static RequestConfig config = RequestConfig.custom().setConnectTimeout(6000).setSocketTimeout(6000) .setCookieSpec(CookieSpecs.STANDARD).build(); // 设置超时及cookie策略 public static String getDemo(String url) { HttpGet get = new HttpGet(url); get.setConfig(config); HttpResponse response = null; String html = null; try { response = client.execute(get); int statusCode = response.getStatusLine().getStatusCode();// 连接代码 Header[] headers = response.getAllHeaders(); // 用于得到返回的文件头 for (Header header : headers) { System.out.println(header); } html = new String(EntityUtils.toString(response.getEntity()).getBytes("iso8859-1"), "gb2312"); // 在后面参数输入网站的编码,一般为utf-8 // 返回的html代码,避免发生编码错误 System.out.println(html); } catch (IOException e) { e.printStackTrace(); } return html; }
大致流程:新建httpget对象->用httpClient执行->解析返回的response得到自己需要的内容
cookieSpec:即cookie策略。参数为cookiespecs的一些字段。作用:1、如果网站header中有set-cookie字段时,采用默认方式可能会被cookie reject,无法写入cookie。将此属性设置成CookieSpecs.STANDARD_STRICT可避免此情况。2、如果要想忽略cookie访问,则将此属性设置成CookieSpecs.IGNORE_COOKIES。
tips:注意网站编码,否则容易出现乱码
三、执行post请求:
/** * used to post form data which is the url needed */ public static void postDemo(String url) { HttpPost post = new HttpPost(url); post.setConfig(config); post.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.93 Safari/537.36"); post.setHeader("Connection", "keep-alive"); List<NameValuePair> list = new ArrayList<NameValuePair>(); list.add(new BasicNameValuePair("key", "value")); list.add(new BasicNameValuePair("key", "value")); list.add(new BasicNameValuePair("key", "value")); list.add(new BasicNameValuePair("key", "value")); list.add(new BasicNameValuePair("key", "value")); try { HttpEntity entity = new UrlEncodedFormEntity(list, "utf-8"); post.setEntity(entity); HttpResponse response = client.execute(post); String responseHtml = EntityUtils.toString(response.getEntity()); System.out.println(responseHtml); } catch (IOException e) { e.printStackTrace(); } }
大致流程:新建post对象->新建需要的表单页->将表单内容设置入请求中->执行并获得response
四:解析response:
得到html code:
String responseHtml = EntityUtils.toString(response.getEntity());
得到http状态码:
int statusCode = response.getStatusLine().getStatusCode();// 连接代码
得到response header:
response.getFirstHeader("key");// 得到第一个名字为key的header response.getHeaders("key");// 得到名字为key的所有header,返回一个数组 response.getLastHeader("key");
得到inputstream:(下载网络部分资源的时候有可能会对cookie有要求,此时需要用到httpClient来下载。)例如验证码等等。
InputStream inputStream = response.getEntity().getContent();
五:管理cookie:
httpClient里默认自动管理cookie,如果想要提取cookie或者发送自定义的cookie,则需要在httpClient对象初始化时设置一个默认的cookiestore来保存。(方法见初始化httpClient对象里的setDefaultCookieStore)。
得到当前所有cookie:
List<Cookie> list = cookieStore.getCookies();// get all cookies System.out.println("cookie is:"); System.out.println("-----------------------"); for (Cookie cookie : list) { System.out.println(cookie); } System.out.println("-----------------------");清除所有cookie:
cookieStore.clear();发送自定义cookie:(new了一个对象之后可以设置多种属性。)
BasicClientCookie cookie = new BasicClientCookie("name", "value"); // new a cookie cookie.setDomain("domain"); cookie.setExpiryDate(new Date()); // set the properties of the cookie cookieStore.addCookie(cookie);最后通过按得到addCookie将其加入cookieStore。(如有相同的name的cookie将会覆盖,个人觉得类似hashmap的put操作。)
六:管理header:
在平常抓取过程中,经常需要在请求中加入许多header伪装成一个正常的浏览器。以免被服务器认出是爬虫而被封。
设置一些常见header:
post.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.93 Safari/537.36"); post.setHeader("Connection", "keep-alive");
注意:下载某些网站的资源时,服务器会获取你的来源站,并发出对应的相应。如果来源站不对,可能会被服务器拒绝。此时只需要在请求中加个header就行。
get1.setHeader("Referer", "http://www.a.com");
ps:
1、爬虫也要遵守基本法,在多次请求的之中为了不给对方服务器造成负担(避免被封),尽量在请求间sleep一个随机数值。
2、爬取非英文网站时注意编码格式,国内一般为utf-8,也有一些是gb2312.获取时注意转码。
3、多获得一些可靠IP(备胎),一旦自身ip被封,赶快去找备胎。附带一个简单的判断网站是否需要代理方法:
// 判断访问目标网站是否需要代理 private boolean isNeedProxy() { boolean result = true; URL url; try { url = new URL("http://apkpure.com/"); HttpURLConnection connection = (HttpURLConnection) url.openConnection(); connection.setConnectTimeout(6000); // int i = connection.getResponseCode(); int i = connection.getContentLength(); if (i > 0) { result = false; } } catch (IOException e) { e.printStackTrace(); } return result; }