安装完成后,打开命令行,执行node -v 验证是否安装成功。
使用 npm init -y 快速初始化一个新的项目,然后新建js文件。
nodejs 爬虫需要几个模块,通过 npm install 来安装。
npm install cheerio --save-dev
npm install request --save-dev
npm install iconv-lite --save-dev
初始化完成后的目录结构如下
--test
-----node_modules
-----package.json
-----test.js
引入需要的模块,
var http = require('http');
var fs = require('fs');
var iconv = require('iconv-lite');
var cheerio = require('cheerio');
var request = require('request');
定义网站的URL,
var url ="";
定义数据保存文件,
var file = "./test.txt";
采用http发起一次get请求,
function InitialRequest(url){
http.get(url, function (req) {
var html = ''; //保存请求网站的html代码
req.setEncoding('utf-8'); //防止中文乱码
//监听request data事件,当数据到来时触发事件
req.on('data', function (chunk) {
//chunk表示接收到的数据
html += chunk;
});
//监听request end事件,当数据传输完成时触发事件
req.on('end', function () {
//用cheerio模块来解析html
var $ = cheerio.load(html);
//var images = $('img');//类似jquery获取dom元素
saveHtml(html,file);//将数据保存为文件
// console.log(html);
});
})
}
保存为文件 saveHtml函数,通过node fs模块写入文件
function saveHtml(str, file){
fs.writeFile(file, str,function(err){
if(err)
console.log("fail " + err);
else
console.log("success");
});
}
至此,已经将网页内容抓取后保存为 test.txt文件。
这是用nodejs写的简单的爬虫抓取网页内容,其实也就是一个网络请求函数和一个保存文件函数,下面是完整代码。
var http = require('http');
var fs = require('fs');
var iconv = require('iconv-lite');
var cheerio = require('cheerio');
var request = require('request');
var url ="";
var file = "./test.txt";
function InitialRequest(url){
http.get(url, function (req) {
var html = ''; //保存请求网站的html代码
req.setEncoding('utf-8'); //防止中文乱码
//监听request data事件,当数据到来时触发事件
req.on('data', function (chunk) {
//chunk表示接收到的数据
html += chunk;
});
//监听request end事件,当数据传输完成时触发事件
req.on('end', function () {
//用cheerio模块来解析html
var $ = cheerio.load(html);
//var images = $('img');//类似jquery获取dom元素
saveHtml(html,file);//将数据保存为文件
// console.log(html);
});
})
}
function saveHtml(str, file){
fs.writeFile(file, str,function(err){
if(err)
console.log("fail " + err);
else
console.log("success");
});
}
InitialRequest(url);