第二篇大神开始抓知乎了,哟哟好顺利的样子。
最终目标:抓取http://www.cfsn.cn/news/node_4534.htm的新闻标题、链接,并存储到mysql中。
现在以模仿为主,第一阶段:抓取之后存储到txt之中。
将main中url赋值为http://www.cfsn.cn/news/node_4534.htm,运行结果是该页面的源码,接着应该用正则表达式抓取需要的信息。
该页面的第一条新闻:
<a href="content/2014-05/14/content_203870.htm" target="_blank">青岛22人因生产有害食品获刑</a>
回头看大神原文:
正则语句为question_link.+?href=\"(.+?)\"
则抓取结果【最新结果】
/question/22221540/answer/22120516
正则语句为question_link.+?>(.+?)<
则抓取结果为第一个标题。
=>()中内容是要抓的部分。
观察食品安全的网页源码,_blank具有特殊性,可见其与其他超链接区分开。
试一下
正则语句:_blank\">(.+?)<
public static void main(String[] args) { // 定义即将访问的链接 String url = "http://www.cfsn.cn/news/node_4534.htm"; // 访问链接并获取页面内容 String result = SendGet(url); // 使用正则匹配图片的src内容 String imgSrc = RegexString(result, "_blank\">(.+?)<"); // 打印结果 System.out.println(imgSrc); }
运行结果:
青岛22人因生产有害食品获刑
(第一次运行显示超时异常,坑爹网速不给力吖)
接着要将所有结果存储到ArrayList中,我们需要新的正则函数
旧的正则函数:
static String RegexString(String targetStr, String patternStr) { // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容 // 相当于埋好了陷阱匹配的地方就会掉下去 Pattern pattern = Pattern.compile(patternStr); // 定义一个matcher用来做匹配 Matcher matcher = pattern.matcher(targetStr); // 如果找到了 if (matcher.find()) { // 打印出结果 return matcher.group(1); } return "Nothing"; }
新的
static ArrayList<String> RegexString(String targetStr, String patternStr) { // 预定义一个ArrayList来存储结果 ArrayList<String> results = new ArrayList<String>(); // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容, 相当于埋好了陷阱匹配的地方就会掉下去 Pattern pattern = Pattern.compile(patternStr); // 定义一个matcher用来做匹配 Matcher matcher = pattern.matcher(targetStr); // 如果找到了 boolean isFind = matcher.find(); // 使用循环将句子里所有的kelvin找出并替换再将内容加到sb里 while(isFind){ //添加成功匹配的结果 results.add(matcher.group(1)); // 继续查找下一个匹配对象 isFind=matcher.find(); } return results; }
还要修改main中imgSrc的类型为ArrayList<String>
运行结果:
[青岛22人因生产有害食品获刑, 广西查获120吨凤爪猪耳等洋垃圾, 臭豆腐用 【略】
成功抓取到所有标题。
抓链接的正则表达式:
若为href=\"(.+?)\" 多抓了几个;
若为href=\"(.+?)\".+?_blank,结果每次都是Connection time out;
还没系统研究过正则,有可能是\"后面的.+?所致
实际测试正则表达式为span><a href=\"(.+?)\"运行结果则显示出要的新闻超链接。
下来需要标题和链接,设计一个cfsn类(china food safe net)存储所有抓取到的对象,
public class Cfsn { public String title; //新闻标题 public String CfsnUrl ;//网页链接 //构造方法初始化数据 public Cfsn(){ title = "" ; CfsnUrl = "" ; } @Override public String toString(){ return "标题:"+title+"\n链接:"+CfsnUrl+"\n"; } }
Spider类:
import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.URL; import java.net.URLConnection; import java.util.ArrayList; import java.util.regex.Matcher; import java.util.regex.Pattern; //Spider类来存放一些爬虫常用的函数。 public class Spider { static String SendGet(String url) { // 定义一个字符串用来存储网页内容 String result = ""; // 定义一个缓冲字符输入流 BufferedReader in = null; try { // 将string转成url对象 URL realUrl = new URL(url); // 初始化一个链接到那个url的连接 URLConnection connection = realUrl.openConnection(); // 开始实际的连接 connection.connect(); // 初始化 BufferedReader输入流来读取URL的响应 in = new BufferedReader(new InputStreamReader( connection.getInputStream(), "UTF-8")); // 用来临时存储抓取到的每一行的数据 String line; while ((line = in.readLine()) != null) { // 遍历抓取到的每一行并将其存储到result里面 result += line; } } catch (Exception e) { System.out.println("发送GET请求出现异常!" + e); e.printStackTrace(); } // 使用finally来关闭输入流 finally { try { if (in != null) { in.close(); } } catch (Exception e2) { e2.printStackTrace(); } } return result; } static ArrayList<Cfsn> GetCfsn(String content) { // 预定义一个ArrayList来存储结果 ArrayList<Cfsn> results = new ArrayList<Cfsn>(); // 用来匹配标题 Pattern questionPattern = Pattern.compile("_blank\">(.+?)<"); Matcher questionMatcher = questionPattern.matcher(content); // 用来匹配url,也就是问题的链接 Pattern urlPattern = Pattern.compile("span><a href=\"(.+?)\""); Matcher urlMatcher = urlPattern.matcher(content); // 标题和链接要均能匹配到 boolean isFind = questionMatcher.find() && urlMatcher.find(); while (isFind) { // 定义一个食品安全网对象来存储抓取到的信息 Cfsn zhuhuTemp = new Cfsn(); zhuhuTemp.title = questionMatcher.group(1); zhuhuTemp.CfsnUrl = "http://www.cfsn.cn/news/" + urlMatcher.group(1); // 添加成功匹配的结果 results.add(zhuhuTemp); // 继续查找下一个匹配对象 isFind = questionMatcher.find() && urlMatcher.find(); } return results; } }
Main类:
import java.util.ArrayList; public class Main { public static void main(String args[]) { // 定义即将访问的链接 String url = "http://www.cfsn.cn/news/node_4534.htm"; // 访问链接并获取页面内容 String content = Spider.SendGet(url); // 获取该页面的所有的知乎对象 ArrayList<Cfsn> myCfsn = Spider.GetCfsn(content); // 打印结果 System.out.println(myCfsn); } }
结果:
【普大喜奔啊啊啊】
运行3、4遍都是connection time out,绝望的时候居然抓取成功了(oschina限定上传图片小于200k,可以鄙视一下么,QQ截图400K吖吖吖)
最后再次诅咒一下我的网速,明天follow大神继续下一步