公司要做一个电商的网站,而该项目是由J2EE架构完成,项目经理说要让Java代码自助每天生成电子商务网站的Sitemap文件,然后开始上网各种查资料!!!
然而,终于碰上了本人有生以来第一个在网上没找到的具体答案的东西,自己干吧,不过网上也有做过类似的,只不过人家应该是大牛吧,没有说的很详细,只好自己慢慢领悟了.
按照大牛给的方向,摆在我面前一下出现三个问题:1,获取网站所有链接。 2,生成XML文件 3,定时调用,后两种问题如果做过Java程序的人,应该比较好解决。(这句话是大牛说的),这篇文章解决的是第一个问题和第二个问题,如何获得网站的所有链接并生成sitemap.xml文件
###代码:
package com.langgufoeng.test.entity;
/**
* 标题: urlEntity.java
* 路径: com.langgufoeng.test.entity
* 描述: TODO sitemap.xml中每个链接对应的实体
* 作者: 郎国峰
* 时间: 2018-1-7 下午2:50:08
* 版本: @version V1.0
*/
public class UrlEntity {
private String loc;
private String lastmod;
private String changefreq;
private String priority;
public String getLoc() {
return loc;
}
public void setLoc(String loc) {
this.loc = loc;
}
public String getLastmod() {
return lastmod;
}
public void setLastmod(String lastmod) {
this.lastmod = lastmod;
}
public String getChangefreq() {
return changefreq;
}
public void setChangefreq(String changefreq) {
this.changefreq = changefreq;
}
public String getPriority() {
return priority;
}
public void setPriority(String priority) {
this.priority = priority;
}
@Override
public String toString() {
return "UrlEntity [loc=" + loc + ", lastmod=" + lastmod
+ ", changefreq=" + changefreq + ", priority=" + priority + "]";
}
}
package com.langgufoeng.test.entity;
import java.util.List;
/**
* 标题: UrlsetEntity.java
* 路径: com.langgufoeng.test.entity
* 描述: TODO sitemap.xml对应的实体
* 作者: 郎国峰
* 时间: 2018-1-7 下午2:51:15 版本: @version V1.0
*/
public class UrlsetEntity {
static List list;
public static List getList() {
return list;
}
public static void setList(List list) {
UrlsetEntity.list = list;
}
}
package com.langgufoeng.test;
import java.io.File;
import java.net.MalformedURLException;
import java.util.Date;
import java.util.List;
import com.langgufoeng.test.entity.UrlEntity;
import com.langgufoeng.test.entity.UrlsetEntity;
import com.redfin.sitemapgenerator.ChangeFreq;
import com.redfin.sitemapgenerator.WebSitemapGenerator;
import com.redfin.sitemapgenerator.WebSitemapUrl;
/**
* 标题: EntityToSitemap.java
* 路径: com.langgufoeng.test
* 描述: TODO 根据实体类生成sitemap
* 作者: 郎国峰
* 时间: 2018-1-7 下午3:00:01
* 版本: @version V1.0
*/
public class EntityToSitemap {
static public void toSitemap(){
WebSitemapGenerator sitemapGenerator = null;
try {
// 压缩输出 true 不压缩输出false
sitemapGenerator = WebSitemapGenerator.builder("http://www.baidu.com", new File("WebRoot")).gzip(false).build();
//得到sitemap实体
List sitemapList = UrlsetEntity.getList();
//遍历实体,得到sitemapUrl信息
for (int i = 0; i < sitemapList.size(); i++) {
UrlEntity sitemap = sitemapList.get(i);
System.out.println("url路径"+sitemap.getLoc());
WebSitemapUrl sitemapUrl = new WebSitemapUrl.Options(sitemap.getLoc()).build();
sitemapGenerator.addUrl(sitemapUrl);
}
} catch (MalformedURLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}finally{
sitemapGenerator.write();
}
}
}
package com.langgufoeng.test;
import java.util.HashSet;
import java.util.Set;
import org.htmlparser.Node;
import org.htmlparser.NodeFilter;
import org.htmlparser.Parser;
import org.htmlparser.filters.NodeClassFilter;
import org.htmlparser.filters.OrFilter;
import org.htmlparser.tags.LinkTag;
import org.htmlparser.util.NodeList;
import org.htmlparser.util.ParserException;
/**
* 标题: HtmlParserTool.java
* 路径: com.langgufoeng.test
* 描述: TODO 从获得的网页中提取url
* 作者: 郎国峰
* 时间: 2018-1-7 上午10:32:37
* 版本: @version V1.0
*/
public class HtmlParserTool {
private HtmlParserTool(){}
private static final HtmlParserTool htmlParserTool = new HtmlParserTool();
/*
* 单例模式
*/
public static HtmlParserTool getInstance() {
return htmlParserTool;
}
/**
* @方法名: extracLinks
* @描述: 获取一个网站上的链接,filter用来过滤链接
* @作者: 郎国峰
* @时间: 2018-1-7 上午10:48:51
* @return 返回页面上解析出来的集合
*/
public static Set extracLinks(String url, LinkFilter filter) {
//创建一个set集合,用来存储页面上解析出来的符合标准的url
Set links = new HashSet();
try {
Parser parser = new Parser(url);
parser.setEncoding("UTF-8");
//System.out.println("根据url得到的解析结果"+parser);
//过滤 标签的filter
NodeFilter frameFilter = new NodeFilter() {
public boolean accept(Node node) {
if (node.getText().startsWith("frame src=")){
return true;
}
return false;
}
};
//OrFilter 用来设置过滤 标签和 标签
OrFilter linkFilter = new OrFilter(new NodeClassFilter(LinkTag.class), frameFilter);
//得到所有经过过滤的标签
NodeList list = parser.extractAllNodesThatMatch(linkFilter);
//System.out.println("所有经过过滤的标签"+list+"\t list长度:"+list.size());
for (int i = 0; i < list.size(); i++) {
Node tag = list.elementAt(i);
//System.out.println(tag+"每一个标签");
//判断是否是 标签
if (tag instanceof LinkTag) {
LinkTag link = (LinkTag) tag;
//得到a标签的href
String linkUrl = link.getLink();
//判断a标签的href的值是否是本网站的,如果是就添加到links中
if (filter.accept(linkUrl)){
links.add(linkUrl);
}
} else {//标签
//提取frame里的src属性的链接, 如
String frame = tag.getText();
int start = frame.indexOf("src=");
if (start != -1) {
frame = frame.substring(start);
}
int end = frame.indexOf(" ");
String frameUrl = "";
if (end == -1) {
end = frame.indexOf(">");
if (end - 1 > 5) {
frameUrl = frame.substring(5, end - 1);
}
}
if (filter.accept(frameUrl)) {
links.add(frameUrl);
}
}
}
} catch (ParserException e) {
e.printStackTrace();
}
return links;
}
}
package com.langgufoeng.test;
/**
* 标题: LinkFilter.java
* 路径: com.langgufoeng.test
* 描述: TODO 定义一个网址过滤器,判断是否以固定网址开头
* 作者: 郎国峰
* 时间: 2018-1-8 下午5:05:47
* 版本: @version V1.0
*/
public interface LinkFilter {
public boolean accept(String url);
}
package com.langgufoeng.test;
import java.util.HashSet;
import java.util.Set;
/**
* 标题: LinkQueue.java
* 路径: com.langgufoeng.test
* 描述: TODO 除了URL队列之外,在爬虫过程中,还需要一个数据结构来记录已经访问过的URL.
* 每当访问一个URL的时候,首先在这个数据结构中进行查找,如果当前URL已经存在,则丢
* 弃它,这个数据结构要有两个特点:
* ~ 结构中保存的URL不能重复
* ~ 能够快速的查找(实际系统中URL的数目非常多,因此要考虑查找性能).
* 针对以上两点,我们选择HashSet作为存储结构
* 作者: 郎国峰
* 时间: 2018-1-7 上午8:58:04
* 版本: @version V1.0
*/
public class LinkQueue {
//已访问的url集合
private static Set visitedUrl = new HashSet();
//待访问的url集合
private static Queue unVisitedUrl = new Queue();
//单例
private final static LinkQueue linkQueue = new LinkQueue();
private LinkQueue(){}
public static LinkQueue getInstance(){
return linkQueue;
}
/**
* @方法名: getUnVisitedUrl
* @描述: 获得将要访问的URL队列
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:06:21
* @return
*/
public static Queue getUnVisitedUrl(){
return unVisitedUrl;
}
/**
* @方法名: addVisitedUrl
* @描述: 添加到访问过的URL队列中
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:07:47
* @param url
*/
public static void addVisitedUrl(String url){
visitedUrl.add(url);
}
/**
* @方法名: removeVisitedUrl
* @描述: 移出访问过的url
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:09:40
* @param url
*/
public static void removeVisitedUrl(String url){
visitedUrl.remove(url);
}
/**
* @方法名: unVisitedUrlDeQueue
* @描述: 未访问过的url出队列
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:12:20
* @return
*/
public static Object unVisitedUrlDeQueue(){
return unVisitedUrl.deQueue();
}
/**
* @方法名: addUnvisitedUrl
* @描述: 保证每个url只被访问一次
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:19:26
* @param url
*/
public static void addUnvisitedUrl(String url){
if(url != null && !url.trim().equals("") //url不为null也不为空
&& !visitedUrl.contains(url) //url未被访问过
&& !unVisitedUrl.contians(url)){ //url队列里不包含此url
unVisitedUrl.enQueue(url); //将此url添加到url队列中
}
}
/**
* @方法名: getVisitedUrlNum
* @描述: 获得已经访问过的URL数目
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:21:02
* @return
*/
public static int getVisitedUrlNum(){
return visitedUrl.size();
}
/**
* @方法名: unVisitedUrlsEmpty
* @描述: 判断未访问过的url是否为空
* @作者: 郎国峰
* @时间: 2018-1-7 上午9:24:03
* @return
*/
public static boolean unVisitedUrlsEmpty(){
return unVisitedUrl.isQueueEmpty();
}
/**
* @方法名: getVisitedUrl
* @描述: 获得已经访问过的URL集合
* @作者: 郎国峰
* @时间: 2018-1-7 下午3:23:46
* @return
*/
public static Set getVisitedUrl() {
return visitedUrl;
}
}
package com.langgufoeng.test;
import java.util.ArrayList;
import java.util.List;
import java.util.Set;
import com.langgufoeng.test.entity.UrlEntity;
import com.langgufoeng.test.entity.UrlsetEntity;
/**
* 标题: MainCrawler.java
* 路径: com.langgufoeng.test
* 描述: TODO 生成sitemap.xml主程序
* 作者: 郎国峰
* 时间: 2018-1-7 下午1:52:36
* 版本: @version V1.0
*/
public class MainCrawler {
private LinkQueue linkQueue = LinkQueue.getInstance();
/**
* @方法名: initCrawlerWithSeeds
* @描述: 使用种子初始化RUL队列
* @作者: 郎国峰
* @时间: 2018-1-7 下午1:53:13
* @param seeds
*/
private void initCrawlerWithSeeds(String[] seeds) {
for(int i=0; i links = HtmlParserTool.extracLinks(visitUrl, filter);
System.out.println("再次提取的页面路径"+links);
for(String link:links) {
linkQueue.addUnvisitedUrl(link);
}
System.err.println("-------------------------------循环"+ ++i+"次------------------------------");
}
}
public static void main(String[] args) {
//声明一个网站地址字符串
//创建一个爬虫主线程
MainCrawler crawler = new MainCrawler();
crawler.crawling(new String[]{"http://www.baidu.com"}); //NewFile main
//将所有访问过的链接放到一个set里
Set set = LinkQueue.getVisitedUrl();
//创建一个list用来存储sitemap信息
List list = new ArrayList();
//遍历所有访问过的链接,得到对应的sitemap信息,赋值给url实体
for (Object object : set) {
UrlEntity url = new UrlEntity();
url.setLoc(object.toString());
list.add(url);
}
//将url实体集合赋值给urlset实体
UrlsetEntity.setList(list);
//创建sitemap文件
EntityToSitemap.toSitemap();
}
}
package com.langgufoeng.test;
import java.util.LinkedList;
/**
* 标题: Queue.java
* 路径: com.langgufoeng.test
* 描述: TODO 队列,保存将要访问的URL
* 作者: 郎国峰
* 时间: 2018-1-7 上午8:49:29
* 版本: @version V1.0
*/
public class Queue {
//使用链表实现队列
private LinkedList queue = new LinkedList();
/**
* @方法名: enQueue
* @描述: 入队列
* @作者: 郎国峰
* @时间: 2018-1-7 上午8:52:02
* @param t
*/
public void enQueue(Object t){
queue.addLast(t);
}
/**
* @方法名: deQueue
* @描述: 出队列
* @作者: 郎国峰
* @时间: 2018-1-7 上午8:53:13
* @return
*/
public Object deQueue(){
return queue.removeFirst();
}
/**
* @方法名: isQueueEmpty
* @描述: 判断队列是否为空
* @作者: 郎国峰
* @时间: 2018-1-7 上午8:54:17
* @return
*/
public boolean isQueueEmpty(){
return queue.isEmpty();
}
/**
* @方法名: contians
* @描述: 判断队列是否包含t
* @作者: 郎国峰
* @时间: 2018-1-7 上午8:55:35
* @param t
* @return
*/
public boolean contians(Object t){
return queue.contains(t);
}
}
以上代码是我自己写的一个例子,用的是myeclipse,测试的百度首页,解析的连接知识a标签和frame标签的连接,如果项目需要可以参考,然后按实际需求进行相应的更改,可能存在一定问题,欢迎批评指正.