之前几篇博文对nucth抓取周期的几个命令做了说明,本篇博文将对nutch抓取周期以外的几个重要的命令的使用进行详细的说明。
合并多个segment为一个segment。
参数:
参数说明:
命令:
bin/nutch mergesegs data2/segments_all -dir data2/segments/
合并结果:
从结果可以看出,是把三个segments合并为了一个segment。
从结果来看,大小没有变,是因为数据量比较小,如果数据量很大的话,效果也会相当的明显。另外hadoop对于处理大文件有先天的优势,所以合并的命令有非常大的作用。
合并的命令有3个:
另外两个:mergedb和mergelinkdb的使用方法和mergesegs的使用完全一样,这里不做详细说明。
执行命令:
bin/nutch mergesegs data2/segments_all -dir data2/segments/
可以看到,在data目录下面生成了linkdb目录了:
对一个url进行源数据的解析以及文本内容的解析。
参数:
参数说明:
执行命令:
bin/nutch parsechecker http://www.cnbeta.com
执行结果:
从执行结果可以看出有213条外链,网站签名等信息。
域统计:从crwaldb中计算域名统计信息。
参数:
参数说明:
执行命令:
bin/nutch domainstats data2/crawldb/current/ host host
bin/nutch domainstats data2/crawldb/current/ domian domain
bin/nutch domainstats data2/crawldb/current/ suffix suffix
bin/nutch domainstats data2/crawldb/current/ tld tld
从已经存在的segment从生成一个web graph。
参数:
参数说明:
执行命令:
bin/nutch webgraph -segmentDir data2/segments/ -webgraphdb data2/webgraphdb
执行命令:
bin/nutch nodedumper -topn 1 -inlinks -output inlinks_topn_1 -webgraphdb data2/webgraphdb
执行命令:
bin/nutch nodedumper -topn 1 -outlinks -output outlinks_topn_1 -webgraphdb data2/webgraphdb
执行命令:
bin/nutch nodedumper -topn 1 -scores -output scores_topn_1 -webgraphdb data2/webgraphdb
执行命令:
bin/nutch linkrank -webgraphdb data2/webgraphdb
再来通过nodedumper看下分值:
执行命令:
bin/nutch nodedumper -scores -output after_inject_score -topn 1 -webgraphdb data2/webgraphdb
轻量级抓取:从文本文件里面生成一个segment,然后对这个segment进行抓取。
参数:
参数说明:
执行命令:
mkdir url2
vim url2/url.txt//输入http://cnbbeta.com
bin/nutch freegen url2 data/segments
执行命令:
bin/nutch indexchecker httP://www.163.com