N-API 也发布一段时间了,社区中有很多 Native addon 也慢慢迁移到了 N-API,比如 bcrypt , sse4_crc32 等。N-API 弥补了之前 nan
最痛的跨 V8 版本 ABI 不兼容的问题。
想了解 NodeJS native addon 相关接口的同学可以看 @死月絲卡蕾特 大佬的博客 从暴力到 NAN 再到 NAPI——Node.js 原生模块开发方式变迁。
但即使是迁移到了 N-API,编写 native addon 也有一些编写代码之外的痛点。
目前主流的 native addon 有以下几种分发方式:
需要使用的用户自行安装 node-gyp
,cmake
g++
等构建工具,在开发阶段这些都不是什么问题,但随着 Docker
的普及,在特定的 Docker
环境中安装一堆编译工具链实在是很多团队的噩梦。而且这个问题如果处理不好的话,还会白白增加 Docker image
的体积 (其实这个问题是可以通过构建 Docker image 之前就在一个专门的 Builder image 里面编译完来解决,但是我在各种公司聊下来鲜有团队会这样做)。
有些 native addon 的构建依赖实在是太复杂了,让普通的 Node 开发者在开发阶段安装全套的编译工具不太现实。还有一种情况是,native addon 本身太复杂了,可能编译一次需要非常多的时间,库的作者肯定不希望大家在使用他的库的时候仅安装就要花掉半小时吧。
所以还有一种比较流行的方式是通过 CI
工具,在各个平台(win32/darwin/linux) 的 CI
任务中预编译 native addon,进行分发的时候只分发对应的 JavaScript 代码,而预编译的 addon 文件通过 postinstall
脚本从 CDN 下载下来。比如社区中有一个比较流行的用来干这个事情的工具: node-pre-gyp。这个工具会根据使用者的配置自动将 CI
中编译出来的 native addon 上传到特定的地方,然后在安装的时候从上传的地方下载下来。
这种分发方式看起来无懈可击,但其实有几个没办法绕过去的问题:
node-pre-gyp
这种工具会在项目里增加很多运行时无关的依赖。postinstall
从某个 Github release 下载文件等 1 小时最后失败了的惨痛回忆吗?诚然在国内搭建对应的 binary mirror 可以部分缓解这个问题,但是 mirror 不同步/缺失的情况也时有发生。最近前端很火的新一代构建工具 esbuild 就采用了这种方式。每一个 native addon 对应一个 npm package。然后通过 postinstall
脚本去安装当前系统对应的 native addon package。
还有一种方式是暴露给用户安装使用的 package 将所有的 native package 作为 optionalDependencies
,然后通过 package.json
中的 os
与 cpu
字段,让 npm/yarn/pnpm
在安装的时候自动选择(其实是不符合系统要求的就安装失败了) 安装哪一个 native package,比如:
{
"name": "@node-rs/bcrypt",
"version": "0.5.0",
"os": ["linux", "win32", "darwin"],
"cpu": ["x64"],
"optionalDependencies": {
"@node-rs/bcrypt-darwin": "^0.5.0",
"@node-rs/bcrypt-linux": "^0.5.0",
"@node-rs/bcrypt-win32": "^0.5.0"
}
}
{
"name": "@node-rs/bcrypt-darwin",
"version": "0.5.0",
"os": ["darwin"],
"cpu": ["x64"]
}
{
"name": "@node-rs/bcrypt-linux",
"version": "0.5.0",
"os": ["linux"],
"cpu": ["x64"]
}
{
"name": "@node-rs/bcrypt-win32",
"version": "0.5.0",
"os": ["win32"],
"cpu": ["x64"]
}
这种方式是对使用 native addon 的用户侵扰最小的分发方式,@ffmpeg-installer/ffmpeg 就采用了这种方式。
但是这种方式会对 native addon 的作者带来额外的工作量,包括需要编写一些管理 Release binary 和一堆 package 的工具,这些工具一般都非常难以调试(一般会跨好几个系统与好几个 CPU 架构)。
这些工具需要管理整个 addon 在开发 -> 本地 release version -> CI -> artifacts -> deploy 整个阶段的流转过程。除此之外,还要编写/调试大量的 CI/CD 配置,这些都十分费时费力。
目前大部分的 NodeJS addon 基本都使用 C/C++ 开发。C/C++ 生态非常的繁荣,基本上你想做任何事情都能找到对应的 C/C++ 库。但 C/C++ 的生态因为缺乏统一的构建工具链以及包管理工具,导致这些第三方库在实际封装和使用上会遇到一些其它的问题:
Rust
相信不用我过多介绍(能点进来这篇文章的应该对 Rust 都有一定的了解了吧)。
用 Rust
替代 C/C++
看起来是一个很美好的选择,Rust 有现代化的包管理器: Cargo
,经过这么多年的发展在生态上尤其是与 NodeJS
重叠的 服务端开发 、跨平台 CLI 工具、跨平台 GUI (electron) 等领域有了非常多的沉淀。比起 C/C++
生态,Rust
生态的包属于只要有,都可以直接用 的状态,而 C/C++
生态中的第三方代码则属于 肯定有,但不一定能直接用 的状态。这种状态下,用 Rust
开发 Node addon 少了很多选择,也少了很多选择的烦恼。
在正式决定开始使用 Rust
+ N-API
开发 NodeJS
addon 之前,还有一些问题需要讨论:
NodeJS 官方为 N-API 提供了相应的头文件,作为开发 Node addon 时所需。而 Rust
没有办法直接使用 C 的头文件,所以我们需要将 node.h
暴露的 API 先封装成 Rust
可以使用的 Rust binding
.
在 Rust
生态中,有官方维护的 bindgen 来自动生成头文件对应的 Rust binding
,这个工具非常适合 node.h
这样非常纯粹的 C API 头文件,如果是 C++ API 则会复杂很多。
但是这样生成出来的 Rust binding
一般都是 unsafe
的并且会充满底层的指针操作,这显然不利于我们进一步封装 native addon,也享受不到 Safe Rust
带来的种种好处。
在早夭的 xray 项目中,最早的编辑器架构并非后来的类似 LSP
的 Client/Server
架构,而是 NodeJS
直接调用 Rust
编写的 addon。所以在早期,xray 有一个非常粗糙的 Rust N-API
实现。
几年前我将这些代码从 xray 项目的 Git
的历史中找回来了,并且加以封装和改进:napi-rs,将大部分常用的 N-API 接口封装成了 Safe Rust
接口,并为它们编写了全方位的单元测试,它可以作为使用 Rust
编写 native addon 的重要基石。
Rust
作为出了名的编译极缓慢的语言,分发源码显然是不现实的,而且也不可能要求使用的开发者全部都安装 Rust
全家桶。
通过 postinstall
下载作为一种比较简单但是对使用者极不友好的方式,我觉得也不应该继续提倡使用。
那最终对于使用 Rust
编写的 NodeJS native addon
, 我们最好的选择就是使用不同平台分别分发 addon 的形式。
在 napi-rs 项目中,我封装了简单的 cli
工具,用来帮助使用 napi-rs
的开发者管理从本地开发到 CI
发布的全流程。下面我们来用一个简单而实际的例子介绍一下如何使用 Rust
和 napi-rs
开发、测试、发布一个 NodeJS native addon。
Rust
能做哪些事情我们编写一个 native addon,肯定是想要加速一些计算的过程,然而这种加速并不是没有代价的。
Native code 在一些纯计算的场景比 js 快非常多,但是一旦使用 N-API
与 node 的 js 引擎打交道,就会有非常大的开销(相对计算而言)。
比如在 js 里面设置一个对象的属性会比在 native 里面使用 N-API
设置一个对象的属性快好几倍
const obj = {}
obj.a = 1
let mut result = env.create_object()?;
result.set_named_property("code", env.create_uint32(1)?)?;
Ok(result)
所以在封装 native addon 的时候,我们应该尽量避免 N-API
的调用,不然 native 逻辑为你减少的运行时间又全部被 N-API
调用给加回去了。
使用N-API
中需要注意的性能点实在是太多了,这里就不展开来讲了,后面有时间了或许会写一系列文章介绍各种使用场景下如何选择最优的方式调用N-API
来达到更好的性能。
但是有一些 N-API
的调用其实是必不可少的,比如从参数中的 Js 值里面获取对应的 native 值,或者把 native 值转换成 Js 值返回:
#[js_function(1)] // -> arguments length
fn add_one(ctx: CallContext) -> Result {
let input: JsNumber = ctx.get(0)?; // get first argument
let input_number: u32 = input.try_into()?; // get u32 value from JsNumber, call `napi_get_value_uint32` under the hood
ctx.env.create_u32(input_number + 1) // convert u32 to JsNumber, call `napi_create_uint32` under the hood
}
所以一个典型的 native addon 至少需要两次 N-API
调用 (即使返回 undefined
也要调用 napi_get_undefined
)。在你打算开始编写一个 native addon 的时候,要时刻计算 native 带来的加速是否能抵消其中的 N-API
调用的开销。像上面例子中的 add_one
方法,肯定是比 Js 版本要慢非常多的。Github 上有一个项目对比了不同封装方式中典型的 N-API
的调用开销: rust-node-perf 。
这里近似认为 a + b
这个操作对于纯 Js
和 native
代码来说执行时间近似相等:
| Framework | Relative Exec Time | Effort |
| ----------------------------- | ------------------ | -------- |
| node.js | 1 | n/a |
| wasm-pack (nodejs target) | 1.5386953312994696 | low |
| rust-addon | 2.563630295032209 | high |
| napi-rs | 3.1991337066589773 | mid |
| neon | 13.342197321199631 | mid |
| node-bindgen | 13.606728128895583 | low |
可以看到 napi-rs
比直接使用 JavaScript
慢了 3 倍多。
这也是为什么大家都知道 native addon 比纯 JavaScript 快很多,但很少有人在项目中大规模使用的原因。在 N-API
的调用开销和 v8
引擎已经非常快的前提下,大部分的纯计算的场景也不适合使用 native addon 来替换 Js,甚至是你还能看到一些地方提到用 JavaScript 替换了 native 模块之后,性能有了质的提升:https://github.com/capnproto/node-capnp#this-implementation-is-slow
再比如我最早用 N-API
封装 addon 的时候有一个失败的尝试: @node-rs/simd-json。我将 simd-json 封装成了 native addon,希望得到一个比 Node
自带的 JSON.parse
更快的 API,但实际测下来 native parse 的部分快的突破了天际,而将 native struct
转变成 Js Object
中间的 N-API
call 所需要的时间在数量级上远超 parse 一个 JSON 字符串的时间。
已有的一个 SIMD json port 也有这个问题: simdjson_nodejs#5
那么到底哪些功能适合用 native addon 来完成呢?
N-API
调用), 中间计算逻辑非常复杂。SIMD
指令,还有类似 GPU
调用等。所以下面让我们到 crates.io 中找一个简单的支持 SIMD 功能库,将它封装成 node native addon,来演示一下如何快乐的使用 Rust
+ N-API
做一些高性能并且实用的工具库。
@napi-rs/fast-escape
先上链接:
napi-rs/fast-escapegithub.com在 crates.io
里面搜索 SIMD
,按全时期下载量排序,找到比较流行的使用了 SIMD
技术的库,然后逐个查看。前面 2 页的库要么已经被我封装过了(逃 要么输入输出太复杂不适合封装,要么已经有现成的 Node stdlib 可以用了,翻到第三页看到第一个 v_htmlescape
,一看就适合用来封装成 addon:
N-API
call 来消耗性能我们从 package-template 模版项目 new 一个新项目出来,package-template 中已经设置好了各种依赖/CI 配置和命令,直接在 src/lib.rs
中开始写代码就行了:
#[macro_use]
extern crate napi;
#[macro_use]
extern crate napi_derive;
use napi::{CallContext, Env, JsString, Module, Result};
use v_htmlescape::escape;
register_module!(escape, init);
fn init(module: &mut Module) -> Result<()> {
module.create_named_method("escapeHTML", escape_html)?;
Ok(())
}
#[js_function(1)]
fn escape_html(ctx: CallContext) -> Result {
let input = ctx.get::(0)?;
ctx
.env
.create_string_from_std(escape(input.as_str()?).to_string())
}
这就是一个最小可以使用的的 native addon 代码了,代码分 2 个部分:
register_module
宏接受 2 个参数,第一个是 module 的名字,可以任意命名,这里命名为 escape
, 第二个参数接受一个 rust function
,它有唯一一个参数: Module
,这个参数代表了 NodeJS 中的 module
对象,我们可以通过设置 module.exports
对象设置需要导出的东西,而如果要导出函数则有一个 helper
方法: module.create_named_method
来直接导出。#[js_function(1)]
宏用来定义一个 JsFunction
,被定义的 Rust function
有唯一一个 CallContext
参数,我们从 JavaScript
代码中传入的参数可以通过 ctx::get(n)
方法获取。#[js_function()]
宏里面的参数定义了这个函数有几个参数,当 ctx.get
传入的值大于实际传入的参数个数的时候会抛一个 Js 异常。在运行 yarn build
之后,我们可以在 js
里面这样调用这里的 escape_html
函数:
const { escapeHTML } = require('./index')
console.log(escapeHTML('1')) // <div>1</div>
这里的 yarn build
其实做了很多事情:
cargo build
,将 lib.rs
编译成了动态链接库,放在了 ./target/release/escape.[dll|so|dylib]
napi build --release --platform
,这个命令将上一步的 (lib)escape.[dll|so|dylib]
从 target/release
目录拷贝到当前目录下,并重命名为 escape.[darwin|win32|linux].node
然后 index.js
中调用 @node-rs/helper
里面的 loadBinding
方法,自动从正确的地方加载 native addon:
const { loadBinding } = require('@node-rs/helper')
/**
* __dirname means load native addon from current dir
* 'escape' means native addon name is `escape`
* the first arguments was decided by `napi.name` field in `package.json`
* the second arguments was decided by `name` field in `package.json`
* loadBinding helper will load `escape.[PLATFORM].node` from `__dirname` first
* If failed to load addon, it will fallback to load from `@napi-rs/escape-[PLATFORM]`
*/
module.exports = loadBinding(__dirname, 'escape', '@napi-rs/escape')
这样我们就能愉快的通过 index.js
使用封装好的 escapeHTML
函数了。
那么这个封装能比纯 JavaScript
版本快多少呢?写一个简单的 benchmark 测试一下: bench 。这里选取了大神 sindresorhus 的 escape-goat 作为性能比较的基准:
napi x 799 ops/sec ±0.38% (93 runs sampled)
javascript x 586 ops/sec ±1.40% (81 runs sampled)
Escape html benchmark # Large input bench suite: Fastest is napi
napi x 2,158,169 ops/sec ±0.59% (93 runs sampled)
javascript x 1,951,484 ops/sec ±0.31% (92 runs sampled)
Escape html benchmark # Small input bench suite: Fastest is napi
我们测试两个场景的性能: 小规模输入和大规模输入。小规模输入是一行字符串:
大规模输入是一个 1610
行的 HTML,可以看到不同输入规模下我们的 native addon 性能都要优于纯 JavaScript 版本。
经验告诉我,输入如果是 Buffer
,性能会更优一些 (N-API 的 JsBuffer 相关 API 调用开销要明显小于字符串 API), 所以我们再加一个接受 Buffer
的 API:
...
module.create_named_method("escapeHTMLBuf", escape_html_buf)?;
#[js_function(1)]
fn escape_html_buf(ctx: CallContext) -> Result {
let input = ctx.get::(0)?;
let input_buf: &[u8] = &input;
ctx
.env
.create_string_from_std(escape(unsafe { str::from_utf8_unchecked(input_buf)}).to_string())
}
再来测试一下性能,运行 yarn bench
:
napi x 799 ops/sec ±0.38% (93 runs sampled)
napi#buff x 980 ops/sec ±1.39% (92 runs sampled)
javascript x 586 ops/sec ±1.40% (81 runs sampled)
Escape html benchmark # Large input bench suite: Fastest is napi#buff
napi x 2,158,169 ops/sec ±0.59% (93 runs sampled)
napi#buff x 2,990,077 ops/sec ±0.73% (93 runs sampled)
javascript x 1,951,484 ops/sec ±0.31% (92 runs sampled)
Escape html benchmark # Small input bench suite: Fastest is napi#buff
果然,Buffer
风格的 API 性能更好一些。
而一般高强度的计算任务,我们一般都希望把它 spawn
到另一个线程,以免阻塞主线程的执行。(escape
这个例子可能不太合适,因为这里的计算开销还是挺小的)。使用 napi-rs
也可以比较轻松的完成这个任务:
module.create_named_method("asyncEscapeHTMLBuf", async_escape_html_buf)?;
struct EscapeTask<'env>(&'env [u8]);
impl<'env> Task for EscapeTask<'env> {
type Output = String;
type JsValue = JsString;
fn compute(&mut self) -> Result {
Ok(escape(unsafe { str::from_utf8_unchecked(self.0) }).to_string())
}
fn resolve(&self, env: &mut Env, output: Self::Output) -> Result {
env.create_string_from_std(output)
}
}
#[js_function(1)]
fn async_escape_html_buf(ctx: CallContext) -> Result {
let input = ctx.get::(0)?;
let task = EscapeTask(input.data);
ctx.env.spawn(task)
}
在上面的代码中,我们定义了一个 EscapeTask
结构,然后实现 napi
中的 Task trait
,Task trait
需要实现 4 个部分:
type Output
在 libuv
线程池中计算返回的值,一般是 Rust
值type JsValue
计算完成后 Promise resolve
的值compute
方法,定义了在 libuv
线程池中的计算逻辑resolve
方法,将计算完毕的 Output
转化成 Js 值,最后被 Promise resolve
而在新定义的 js_function
async_escape_html_buf
中,我们只需要构造刚才的 EscapeTask
,然后使用 spawn
方法就能得到一个 Promise
对象:
let task = EscapeTask(input.data);
ctx.env.spawn(task)
在 js
中,我们可以这样使用:
const { asyncEscapeHTMLBuf } = require('./index')
asyncEscapeHTMLBuf(Buffer.from('1'))
.then((escaped) => console.log(escaped)) // <div>1</div>
到这里为止,我们的一个简单的 native addon 就编写完毕了,而发布这个包,只需要以下几步:
npm version [patch | minor | major | ...]
命令git push --follow-tags
仓库中配置好的 Github actions
会自动帮你将 native
模块分别通过不同的 npm 包发布 Build log
当然如果你真的要做这些事情,有几个前置修改需要做:
pacakge-tempalte
到你的包名 (后面会提供 CLI 来帮你做这件事情).github/workflows/CI.yml
中 Upload artifact
步骤中的 package-template
,新的值需要和 package.json
中的 napi.name
字段保持一致 (后面也会提供 CLI 来帮你做这件事)@scope
下,需要保证 package-name-darwin
,package-name-win32
, package-name-linux
, package-name-linux-musl
这几个包你都有发布权限至此,一个简单的 native addon 就封装完成了,大家可以使用 yarn add @napi-rs/escape
来试玩一下刚才封装的这个 native addon。
napi-rs
从诞生到现在,已经形成了一定规模的生态了,node-rs 仓库集中封装了一些常见的 native addon (deno_lint 目前还在非常初始的阶段),swc-node 已经有很多项目用起来了,而由于 swc-node
的成功,swc
的作者最近也从 neon
迁移到了 napi-rs
上: https://github.com/swc-project/swc/pull/1009
这次 migrate
让 swc
的 API 性能快了 2 倍 swc#852 (这也是目前 napi-rs 对比 neon 的优势之一),并且在 CI 和发布管理上节省了很多代码量。
最后欢迎大家试用 napi-rs ,包括 strapi 在内的很多大型 NodeJS 项目 (包括字节跳动内部的 NodeJS 基础库,支撑的总 QPS 可能超过 10w) 已经用上 napi-rs
封装的库了,所以它在代码上已经 production ready 了。
后面我会持续建设它的文档和周边工具链,让它更好用更易用,所以大家也不要忘了给个 Star 或者 Sponsor!
我所在的团队是字节跳动 IES 前端架构,基础体验方向。IES 中文名称是互娱研发,也就是抖音、tiktok 等超大体量产品所在的部门。我们团队计划在前端、hybrid 、flutter、自研引擎、小程序、NodeJS 等多个方面做很多关于性能、体验、监控相关的事情。
最近我们有计划通过 swc
和 N-API
做一些源码扫描的工具,预计可以比基于 acorn 的扫描逻辑快 10~100 倍。后面的规划中,也会有大量涉及到 Rust
与前端/NodeJS 结合的领域可以去开拓,欢迎大家踊跃联系我给我投简历!!!
我的个人微信在: https://github.com/Brooooooklyn
你也可以直接通过我的内推链接投递: https://job.toutiao.com/s/JSea1oG
也可以发邮件到我的邮箱投递: [email protected]