【JAVA】基于HttpClient4.0的网络爬虫基本框架(Java实现)

最近需要爬取一些数据,发现了一些非常赞的网址和博客,总结和搬运如下:

教程篇:HTTPClient4.5:http://blog.csdn.net/u011179993/article/details/47172215
代码实现:http://blog.csdn.net/wangpeng047/article/details/19624529

关于爬虫详细的实现思路,发现了一篇超赞的博客,搬运与整理如下,原博地址为:
http://www.xuebuyuan.com/177356.html


实现语言:Java

模拟HTTP请求:HttpClient 4.0

目标页面结构分析、HTTP请求头信息分析:Firefox + firebug / Chrome(F12 开发者模式)

HTML解析:Jsoup

1.基本思路

网络爬虫的基本思路是:爬虫线程从待抓取URL队列中拿取一个URL -> 模拟浏览器GET请求到目标URL -> 将网页内容下载回来 -> 然后对页面的内容进行解析、获取目标数据保存到相应的存储 -> 再以一定的规则从当前抓取的网页中获取接下来需要继续爬取的URL。

当然以上思路是建立在爬取过程无需模拟登录、被爬的网站比较善良不会做一些“反爬”的工作的基础上,然而现实中,模拟登录有时还是非常重要的(如新浪微博);不会反爬的网站也少之又少,当频访问站点时,可能会被冻结账号、封IP、返回“系统繁忙”“请慢点儿访问”等信息。因此需要对爬虫进行健壮性增强:增加对反爬信息的处理、动态切换账号/IP、访问时间delay等。

2.程序架构

由于模拟登录模块比较复杂,并且不同的网站实现的机制也不尽相同,因此这里只给出一个示意图,下文主要针对不需要进行登录的爬虫进行分析。

Worker:每一个worker就是一个爬虫线程,由主线程SpiderStarter创建

Login(可选):爬虫模拟登录模块,可以设置一个账号队列,一旦账号被冻结,则将其放入队列尾部,并从头部获取一个新账号再次登录。队列的长度需 >= 账号冻结时间 / 每个账号可以支持的连续爬取时间

Fetcher:爬虫模拟浏览器发出GET URL请求,下载页面

Handler:对Fetcher下载的页面进行初步处理,如判断该页面的返回状态码是否正确、页面内容是否为反爬信息等,从而保证传到Parser进行解析的页面是正确的

Parser:对Fetcher下载的页面内容进行解析,获取目标数据

Store:将Parser解析出的目标数据存入本地存储,可以是MySQL传统数据库,也可以Redis等KV存储

待抓取队列:存放需要抓取的URL

已抓取队列:存放已经抓取到的页面的URL
【JAVA】基于HttpClient4.0的网络爬虫基本框架(Java实现)_第1张图片

以下为爬虫实现的流程图,图中绿色方框代表这几个步骤是在同一个模块中的,模块名称用红字表明。
【JAVA】基于HttpClient4.0的网络爬虫基本框架(Java实现)_第2张图片

3.代码实现

明天就开学了,再加上实验室的任务,没时间好好写了,写了个比较水的,eclipse工程,大概就是把上面这个流程图给实现了,很多地方需要根据具体的爬取场景进行实现的都用注释说明了,真心希望以后可以封装的漂亮点儿。

源码见原博

最后,附加淘宝搜索团队的两篇关于爬虫的文章,感觉挺好的,很清晰的结构。有时间可以实现部署一下:

定向抓取漫谈:http://blog.csdn.net/uestcyao/article/details/7896775

快速构建时时抓取集群:http://www.cnblogs.com/zhenjing/articles/spider_acthicture.html

原博地址失效,以上是重新搬运。

你可能感兴趣的:(网络爬虫)