Nutch是一个开源的、Java实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具。
Nutch可以分为2个部分:
抓取程序抓取页面并把抓取回来的数据做成反向索引
搜索程序则对反向索引搜索回答用户的请求。
Nutch的爬虫有两种方式
昨晚折腾了一晚上终于是大功告成了!
这里要说的是基于Intranet(企业内部网)的环境配置
软件:
JDK
Cygwin
Tomcat
apache-nutch-1.2-bin.zip(http://apache.etoak.com//nutch/apache-nutch-1.2-bin.zip)
因为nutch脚本是基于Linux内核的所以在Windows下运行,就需要Cygwin这样一个内核模拟器
1。安装Cygwin(网上资料很多了,建议下载完全的安装版,然后选择从本地安装)
我们的Cygwin安装在C:/cygwin中
2。我们把nutch包解压把文件复制到C:/cygwin下,解压后的文件为nutch-1.2
3。打开安装cygwin安装时生成的快捷方式,这样就能打开cygwin的命令行,里面能执行的当然都是Linux的命令
cd进入nutch-1.2/bin下面
输入./nutch 出来nutch命令的一些选项提示 说明已成功一半
4。接下来是修改nutch-1.2/conf/nutch-site.xml
修改后如下:
<configuration>
<property>
<name>http.agent.name</name>
<value>foxman</value>
<description></description>
</property>
<property>
<name>http.agent.description</name>
<value></value>
<description></description>
</property>
<property>
<name>http.agent.url</name>
<value></value>
<description></description>
</property>
<property>
<name>http.agent.email</name>
<value></value>
<description></description>
</property>
</configuration>
6。在nutch-1.2/bin/下建立文件夹urls,然后在urls下面建立文件url.txt
里面内容是
http://www.163.com/
注:你要抓取的网站。
7。在cygwin中进入nutch-1.2/bin目录
执行
export JAVA_HOME=你JDK的安装路径,不用到JDK的bin文件那一层
配置好JAVA_HOME
接着执行
./nutch crawl urls -dir crawl -depth 5 -threads 4 -topN 50
注:urls就是你之前建立的文件夹
-dir crawl就是创建crawl文件夹来存储抓取的数据
-depth 5 就是抓取的深度
-threads 4 就是执行的线程数
-topN 50 就是每层抓取数目
这样你的抓取数据都在crawl中了
可以执行
./nutch readdb sina/crawldb/ -stats
注:查看抓取信息。
8。把nutch-1.2文件夹下的nutch-1.2.war拷到tomcat的webapps文件下
打开tomcat,nutch-1.2.war会自动被解压成同名的nutch-1.2文件夹。
9。配置nutch-1.2/WEB-INF/classes/nutch-site.xml
修改后如下
<configuration>
<property>
<name>searcher.dir</name>
<value>C:/cygwin/nutch-1.2/bin/crawl</value>
</property>
</configuration>
注:C:/cygwin/nutch-1.2/bin/crawl这个路径就是你之前抓取数据的存放路径。
10。中文乱码问题
配置tomcat的conf文件夹下的server.xml
修改如下
<Connector port="8080" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" URIEncoding="UTF-8" useBodyEncodingForURI="true"/>
注:找到这一段,关键是添加URIEncoding="UTF-8" useBodyEncodingForURI="true"。
最好重启一下Tomcat
浏览器中输入http://localhost:8080/nutch-1.2/就可以大功告成了
常见问题:
如何解决Generator: 0 records selected for fetching, exiting ...
Stopping at depth=0 - no more URLs to fetch.
一般都会是nutch/conf/crawl-urlfilter.txt中的配置出现的不可预见的错误
好好在配一下,参照步骤5。
注意+^http://([a-z0-9]*/.)*163.com/前不要加#那就代表注释了。
我配了好久一路下来都很顺,也是卡在这个问题上半天
我当时就是这个配置错了,最好配的跟我一样斜杆什么的也不要落下了!
OK,祝好远……