如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】

之前

之前利用Jsoup做了个小DEMO爬取百度免费API(* http://apistore.baidu.com/ ),很简单,用Jsoup就可以做到,因为页面加载后的数据填充到html里面,此时查看源代码会看见数据都在源代码里面,这时候可以利用Jsoup爬取,前几天有个需求要爬取天眼查的数据( http://www.tianyancha.com *),自以为和之前做的DEMO一样,不难,就利用原来的DEMO改改,之后居然获取不到想要的。

需求:搜索(条件包括搜索框,注册资本,地区)

以下是我将要爬取的页面:


如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第1张图片

搜索:有限

习惯性审查一下要爬取的元素:


如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第2张图片
这部分是主页面

胸有成竹代码就出来:

Document doc = Jsoup.connect("http://www.tianyancha.com/search?key=有限").ignoreHttpErrors(true).timeout(100000).get();
System.out.println(doc.body());

执行--》

 
  
 
![](http://upload-images.jianshu.io/upload_images/3810137-a12c9c8e1c375522.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
![](http://upload-images.jianshu.io/upload_images/3810137-e7840a271fd37e8e.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
![](http://upload-images.jianshu.io/upload_images/3810137-2dc1551260095554.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) ![](http://upload-images.jianshu.io/upload_images/3810137-2f8c0c671b889cd0.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
![app下载](http://upload-images.jianshu.io/upload_images/3810137-41c6fa56e3e5e7e5.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
![下载天眼查专业版APP](http://upload-images.jianshu.io/upload_images/3810137-93ed2e33708d2d46.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
![下载天眼查专业版APP](http://upload-images.jianshu.io/upload_images/3810137-0726860681c21931.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) ![下载天眼查专业版APP](http://upload-images.jianshu.io/upload_images/3810137-fd3b233ccd8b1c0a.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) ![下载天眼查专业版APP](http://upload-images.jianshu.io/upload_images/3810137-d73cd12dbd35be37.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) ![关闭](http://upload-images.jianshu.io/upload_images/3810137-f2a78be96ebe8a57.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

WTF?

只有这点东西?明明我审查元素的时候有那么多?为什么抓取出来就这么点?这不科学。

爬取的2个办法:

  • 利用Jsoup爬取
  • 利用Ajax请求返回的数据

其一不行,取其二
通过Ajax请求数据,再填充到body里面,于是研究Ajax请求,通过Chrome的NetWork可以抓到:

如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第3张图片
NetWork

这个接口返回的就是列表的数据,欣喜若狂,这也太简单了,双击访问出现:

如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第4张图片
错误

WTF²

这。。到底是咋回事
在搜索了很多文章后发现,这个网站本来就是从各大政府网站爬取过来的数据,哪能那么容易就轻松被别人爬取走。况且:

如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第5张图片
反爬虫工程师

失望中另辟蹊径

失望中又想到另外的办法,既然不能通过Jsoup去爬取,那么是不是有方法可以模拟人为访问,访问后加载完所有的css和js,等数据都返回,再爬取,这不就可以了。
开启搜索引擎一阵搜:

  1. HttpUnit (http://blog.csdn.net/hfhwfw/article/details/37838615)
  1. HtmlUnit (https://my.oschina.net/MiniBu/blog/140729)
  2. WebDriver (https://my.oschina.net/dyhunter/blog/94090)

以上方法都是做自动化测试用的,根本不是用来爬取数据的,所以兼容性不能不是很好。各种尝试都没有得到想要的效果。
最后发现了phantomjs ( http://phantomjs.org/ )。
下载phantomjs后终端就行,加入环境变量自行百度,此处不再多说。

windows下载对应的phantomjs.exe

运行:

/User/music-man/Downloads/phantomjs/phantomjs /User/music-man/Downloads/phantomjs/code.js http://www.tianyancha.com/search?key=有限

注意中间的空格。第一个是phantomjs,第二个是code.js的路径,第三个是爬取的路径。
code.js

system = require('system')  
address = system.args[1];
var page = require('webpage').create();  
var url = address;  
page.open(url, function (status) {  
    //Page is loaded!  
    if (status !== 'success') {  
        console.log('Unable to post!');  
    } else {  
            console.log(page.content);
            phantom.exit();
    } 
  });   

此时终端执行命令,发现整个页面已经爬取下来。
接下来就是如何与Java结合了。
执行命令Java可以这么做

Runtime rt = Runtime.getRuntime();
String exec = "/Users/music-man/Downloads/phantomjs/phantomjs /Users/music-man/Downloads/phantomjs/code.js " + url;
Process p = rt.exec(exec);
InputStream is = p.getInputStream();

这样就可以获得输入流了,获得输入流之后想要怎么操作就简单了吧。
获取了文件流,想操作dom,如何操作呢?
看了一下Jsoup,发现


输入流转Jsoup
public static Document parse(InputStream in, String charsetName, String baseUri) 

第一个参数是输入流,第二个是字符集,第三个是地址:

Document doc = Jsoup.parse(is, "UTF-8", url);

获取到Document再操作dom元素就很明了了。
最后用JFrame做了个界面

如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】_第6张图片

不稳定

执行起来发现不稳定,有时候能爬取到页面,有时候就会失败,让我以为是网站做的限制,后来发现多次重复爬取效率过快的话网站会让输入验证码,导致卡住。

解决

爬取不到我初步怀疑是因为爬取的时候页面还没加载完毕,就进行抓取,有时候网速快,加载好了就能抓取到,有时候没有加载好,爬取失败。看了下phantomjs例子(https://github.com/ariya/phantomjs/blob/master/examples/page_events.js)
发现可以采用js的方法setTimeout
最终code.js改为

system = require('system')  
address = system.args[1];
var page = require('webpage').create();  
var url = address;  
page.open(url, function (status) {  
    //Page is loaded!  
    if (status !== 'success') {  
        console.log('Unable to post!');  
    } else {  
            window.setTimeout(function () {
              page.render("test1.png");  //截图
              console.log(page.content);
              phantom.exit();
          }, 5000);   
    } 
  });   

增加了setTimeout方法后,等待5s差不多执行完页面和js,此时再去抓取页面,发现成功率大大提高。

(2017年12月05日 删除图片,泄漏隐私了)

抓取到后再把需要的写出文件就可以了。

转载请注明出处,谢谢。码了一个多小时

你可能感兴趣的:(如何用JAVA爬取AJAX加载后的页面(利用phantomjs)【以天眼查为例】)