HNSW(Hierarchical Navigable Small Word)算法算是目前推荐领域里面常用的ANN(Approximate Nearest Neighbor)算法了。
其目的就是在极大量的候选集当中如何快速地找到一个query最近邻的 k k k个元素。
要找到一个query的k个最近邻元素,一个朴素的思想就是我去计算这个query和所有的总量 N N N个候选元素的距离,然后选择其中的前 k k k个最小元素,这个经典算法的算法复杂度是 O ( N l o g ( k ) ) O(Nlog(k)) O(Nlog(k)),显然这个算法复杂度实在是太高了,无法适用于实际的使用场景。
而要解决这个问题,可以有多种实现方法,这里所要说的HNSW算法就是目前比较常用的一种搜索算法,它算是其前作NSW算法的一个升级版本,但是两者的本质都是基于一个朴素的思路,就是通过图连接的方式给所有的 N N N个候选元素事先地定义好一个图连接关系,从而可以将前述的算法复杂度当中的 N N N的部分给减小掉,从而优化整体的检索效率。
其整体的一个图结果可以用下图进行表达:
我们在下面的第二小节当中会对这个算法进行具体的展开描述,而在第三小节当中我们会基于当前几个常见的开源库来对hnsw算法进行简单的实现。
现在,我们来看一下HNSW算法的具体原理。
如前所述,HNSW算法是其前作NSW算法的优化算法,因此,在介绍HNSW算法的细节之前,我们需要首先来介绍一下NSW算法。
而要说明NSW算法,我们又必须要先引入Delaunay图,因为NSW算法本质上是对Delaunay图检索的有一个优化。
因此,下面,我们就分别来依序介绍一下这三部分的内容。
首先,我们来介绍一下Delaunay图。
Delaunay图,或者说Delaunay三角剖分本质上就是将图上的一系列散点组成不相交的三角形,然后使得所有这些三角形中最小角度的最大化。
对于点集 P P P的Delaunay三角剖分 D T ( P ) DT(P) DT(P)具有如下性质:
关于Delaunay三角剖分的具体数学描述这里就不多做展开了,有兴趣的读者可以自行查阅相关书籍或者参考链接7, 8。
这里仅仅说明:
而对于存在Delaunay三角剖分的点集 P P P,我们总可以通过下述构造方法构造Delaunay三角剖分:
上述实现方法称之为Bowyer-Watson算法。
综上,我们就给出了一般点集的Delaunay图的构造方法。由此,对于任意点集,我们总能够对其进行三角剖分,构建Delaunay图。特别的,我们可以仿照上述的方法将其扩展至n维向量,因此,对于任意的向量集合,我们都可以对其构造一个Delaunay三角剖分,使得两两向量之间均存在一条通路,即我们对于任意一个目标向量,我们从任意起点出发,一定能够找到和目标向量最相似的这个向量。
但是,Delaunay三角剖分虽然保证了连通性,但是检索效率并不总能够得到保证,且完整构造Delaunay三角剖分图的算法复杂度太高,所以在实际应用当中事实上并无法使用。
NSW算法是基于Delaunay三角剖分的一个近似优化,他借鉴了三角剖分的形式,但是并不像三角剖分那么复杂,借用参考链接中各类博客中的说法,他在三角剖分当中增设了高速公路,而不是严格按照Delaunay三角剖分的连接关系进行检索,从而使得可以更加快速地到达目标向量附近,从而获得所求的最相似的k个向量。
不过,NSW算法返回的k个搜索结果事实上只是一个近似的结果,并无法保证就是groudtruth,不过整体上NSW还是可用的。
下面,我们就来简单看一下NSW算法具体是怎么做的。
我们摘录下述参考链接5中的介绍如下:
- 在候选节点 V V V里面随机挑选一个节点 v i v_i vi
- 将节点 v i v_i vi插入到已经构建好的图中,并构建边。
- 边构建的规则:找到节点 v i v_i vi最近邻的 f f f个邻居,建立 v i v_i vi和这些邻居的边连接。
HNSW算法是在NSW算法之上的更进一步的优化版本。
其核心思路就是在NSW算法的基础上引入跳表来实现分层的思路,从而进一步优化到目标向量的检索速度。
具体而言,就是首先使用全部的向量构造一个nsw图,然后找出其中比较具有代表性的点构成一个上层子图,其节点数目满足指数衰减。
重复上述操作直至只剩下一个输入查询节点。
但是其具体实现上事实上是反过来的,具体来说,就是认为越早输入的点和之前已经输入的点的关联关系越弱。因此,在具体构造方法来说,就是我们不断地对当前层增加新的节点,如果某一层的节点数超过了某一个上限值,就对当前节点往下分出一个新的层,然后对这个层继续进行操作。
我们给出原文献中hnsw构造算法伪代码和检索算法伪代码如下:
现在,我们来看一下hnsw算法的具体实现,我们以网上常用的几个开源库为例进行说明。
数据方面,我们使用10000个128维的embedding作为候选集,然后用100个query进行调用考察,具体样例如下:
import numpy as np
dim = 128
num_elements = 10000
num_queries = 100
data = np.float32(np.random.random((num_elements, dim)))
ids = np.arange(num_elements)
queries = np.float32(np.random.random((num_queries,dim)))
另外,我们统一设置hnsw的表格超参如下:
M = 32
efSearch = 100 # number of entry points (neighbors) we use on each layer
efConstruction = 100 # number of entry points used on each layer during construction
整体上来说,要想要获得更快的构建和检索的速度,那么就需要把这三个超参相对地缩小,反之,要获得更好的召回精度,则需要将这三个超参增大。
hnswlib库的链接如下:
使用方面使用pip安装即可,我们给出基于hnswlib的hnsw的实现方法如下:
import hnswlib
# build hnsw
index = hnswlib.Index(space = 'l2', dim = dim)
index.init_index(max_elements = num_elements, ef_construction = efConstruction, M = M)
index.add_items(data, ids)
index.set_ef(efSearch)
# Query
top_k = 10
preds, distances = index.knn_query(queries, k = top_k)
同样的,我们给出nmslib的github仓库链接如下:
而其具体的python demo实现如下:
import nmslib
# build hnsw
index_time_params = {
'M': M,
'efConstruction': efConstruction
}
index = nmslib.init(method='hnsw', space="l2", data_type=nmslib.DataType.DENSE_VECTOR)
index.addDataPointBatch(data)
index.createIndex(index_time_params, print_progress=True)
query_time_params = {'efSearch': efSearch}
index.setQueryTimeParams(query_time_params)
# query hnsw
top_k = 10
res = index.knnQueryBatch(queries, k = top_k, num_threads = 1)
最后,我们来看一下基于faiss的hnsw的实现,其对应的github仓库链接如下:
不过需要注意的是,faiss库的安装多少有点特殊,需要使用如下命令进行安装:
pip install faiss-cpu
pip install faiss-gpu
而其关于hnsw的实现方法上面倒是和上述两个库基本保持一致:
import faiss
# build hnsw
index = faiss.IndexHNSWFlat(dim, M)
index.hnsw.efConstruction = efConstruction
index.hnsw.efSearch = efSearch
index.add(data)
# query hnsw
top_k = 10
distance, preds = index.search(queries, k=top_k)