我们先尝试在不借助任何工具函数的情况下来解决这个问题。笔者能想到的最简单的方法是:因前一个readFile
的回调运行下一个readFile
,同时跟踪记录迄今已触发的回调次数,并最终显示输出。下面是笔者的实现结果。
Asyncjs/seriesByHand.js
var fs = require('fs'); process.chdir('recipes'); // 改变工作目录 var concatenation = ''; fs.readdir('.', function(err, filenames) { if (err) throw err; function readFileAt(i) { var filename = filenames[i]; fs.stat(filename, function(err, stats) { if (err) throw err; if (! stats.isFile()) return readFileAt(i + 1); fs.readFile(filename, 'utf8', function(err, text) { if (err) throw err; concatenation += text; if (i + 1 === filenames.length) { // 所有文件均已读取,可显示输出 return console.log(concatenation); } readFileAt(i + 1); }); }); } readFileAt(0); });
如你所见,异步版本的代码要比同步版本多很多。如果使用filter
、forEach
这些同步方法,代码的行数大约只有一半,而且读起来也要容易得多。如果这些漂亮的迭代器存在异步版本该多好啊!使用Async.js就能做到这一点!
何时抛出亦无妨?
大家可能注意到了,在上面那个代码示例中笔者无视了自己在第1.4节中提出的建议:从回调里抛出异常是一种糟糕的设计,尤其在成品环境中。不过,一个简单如斯的示例直接抛出异常则完全没有问题。如果真的遇到代码出错的意外情形,throw
会关停代码并提供一个漂亮的堆栈轨迹来解释出错原因。
这里真正的不妥之处在于,同样的错误处理逻辑(即if(err) throw err
)重复了多达3次!在4.2.2节,我们会看到Async.js如何帮助减少这种重复。
我们想把同步迭代器所使用的filter
和forEach
方法替换成相应的异步方法。Async.js给了我们两个选择。
async.filter
和async.forEach
,它们会并行处理给定的数组。async.filterSeries
和async.forEachSeries
,它们会顺序处理给定的数组。并行运行这些异步操作应该会更快,那为什么还要使用序列式方法呢?原因有两个。
joining
(联接)数组来解决这个问题,但这毕竟多了一个步骤。所以现在先搞明白async.forEachSeries
再说。下面使用了Async.js的数据收集方法,直接改写了同步版本的代码实现。
Asyncjs/forEachSeries.js
var async = require('async'); var fs = require('fs'); process.chdir('recipes'); // 改变工作目录 var concatenation = ''; var dirContents = fs.readdirSync('.'); async.filter(dirContents, isFilename, function(filenames) { async.forEachSeries(filenames, readAndConcat, onComplete); }); function isFilename(filename, callback) { fs.stat(filename, function(err, stats) { if (err) throw err; callback(stats.isFile()); }); } function readAndConcat(filename, callback) { fs.readFile(filename, 'utf8', function(err, fileContents) { if (err) return callback(err); concatenation += fileContents; callback(); }); } function onComplete(err) { if (err) throw err; console.log(concatenation); }
现在我们的代码漂亮地分成了两个部分:任务概貌(表现形式为async.filter
调用和async.forEachSeries
调用)和实现细节(表现形式为两个迭代器函数和一个完工回调onComplete
)。
filter
和forEach
并不是仅有的与标准函数式迭代方法相对应的Async.js工具函数。Async.js还提供了以下方法:
reject
/rejectSeries
,与filter
刚好相反;map
/mapSeries
,1:1变换;reduce
/reduceRight
,值的逐步变换;detect
/detectSeries
,找到筛选器匹配的值;sortBy
,产生一个有序副本;some
,测试是否至少有一个值符合给定标准;every
,测试是否所有值均符合给定标准。这些方法是Async.js的精髓,令你能够以最低的代码重复度来执行常见的迭代工作。在继续探索更高级的方法之前,我们先来看看这些方法的错误处理技术。
要怪就怪Node的fs.exists
首开这一先河吧!而这也意味着使用了Async.js数据收集方法(filter
/filterSeries
、reject
/rejectSeries
、detect
/detectSeries
、some
、every
等)的迭代器均无法报告错误。
对于非布尔型的所有Async.js迭代器,传递非null
/undefined
的值作为迭代器回调的首参数将会立即因该错误值而调用完工回调。这正是readAndConcat
不用throw
也能工作的原因。
Asyncjs/forEachSeries.js
function readAndConcat(filename, callback) { fs.readFile(filename, 'utf8', function(err, fileContents) { if (err) return callback(err); concatenation += fileContents; callback(); }); }
所以,如果callback(err)
确实是在readAndConcat
中被调用的,则这个err
会传递给完工回调(即onComplete
)。Async.js只负责保证onComplete
只被调用一次,而不管是因首次出错而调用,还是因成功完成所有操作而调用。
Asyncjs/forEachSeries.js
function onComplete(err) { if (err) throw err; console.log(concatenation); }
Node的错误处理约定对Async.js数据收集方法而言也许并不理想,但对于Async.js的所有其他方法而言,遵守这些约定可以让错误干净利落地从各个任务流向完工回调。下一节会看到更多这样的例子。