向量检索基础方法总结

一、向量检索图解总结

原文:
大规模特征向量检索算法总结 (LSH PQ HNSW):https://www.6aiq.com/article/1587522027341
「向量召回」相似检索算法——HNSW:https://mp.weixin.qq.com/s/dfdNj9CZ3Kj2UwDr9PQcVg

二、原始内容

2.1 基础概念

2.1.1 度量方式:欧式距离,cos距离,汉明距离,jaccard相似度
2.1.2 分类
  • ● 基于空间划分
    • ○ 举例:乘积向量化,哈希等
    • ○ 优点:内存占用小,动态数据增删,召回较高
  • ● 基于图
    • ○ 举例:NSW,HNSW
    • ○ 优点:召回高
    • ○ 缺点:内存占用打,数据动态删减不易

2.2 检索方法1-基于空间划分

2.2.1 基于树的方法

举例:KDTree算法

  • ● 树的构建
    • ○ 选择方差最大的维度分裂,每次拆分成2个子树
  • ● 查询
    • ○ 从根节点出发,执行深度优先遍历,以查找的点为圆心,单前遇到的树的节点的距离为半径画圆,过滤没有橡胶的圆,直到半径不再更新。
  • ● 特点
    • ○ 复杂度:O(kn**((k-1)/k)),与k成线性关系,不适合高纬度向量召回
2.2.2 基于hash的方法

举例:LSH,local sensitive hashing,局部敏感哈希

  • ● 树的构建
    • ○ 方法:每个平面分隔,左边为0,右边为1,得到该平面的哈希值,多个平面来分隔,就可以得到完整的hash值了,有个特点,hash值相近的,在原始向量空间靠的也近,感觉也是一种降维的方法来求相似度。
  • ● 查询
  • ○ 从根节点开始往下找
  • ● 特点
    • ○ 局部敏感:相似样本的点对比远的点更容易发生碰撞
    • ○ 为啥可以加速:显然
    • ○ 为啥要用多表哈希:哈希函数数目K如果太大,相近的点可能不在同一个桶中,通过将这个过程重复L次来增加召回率
    • ○ K,L的选取
      • ■ K
        • ● 太小:很多点都在一个桶里面
        • ● 太大:每个桶数据太小,需要增加L来增加召回
      • ■ L
        • ● 太小:召回不够
        • ● 太大:计算量增加
    • ○ Multiprobe LSH作用:T,在桶里面找邻近点可能不够,还在改桶的邻居里面也找找,可以减少L的数量,增加找到邻居的机会,T为邻居桶查找的数量
2.2.3 乘积量化
  • ● 乘积量化
    • ○ 定义:
    • ■ 乘积向量化(product quantization),核心思想是分段和聚类,kmeans是pq乘积量化子空间数目为1的特例
    • ○ 构建
      • ■ 以128维的样本维度为例
      • ■ 1. 将其切分为4个子空间,每个子空间的维度为32维
      • ■ 2. 对子向量采用kmeans对其进行聚类,例如聚类成256类,这样每个子空间有32维的维度,256个中心
      • ■ 3. 训练样本的每个子段,都用子空间的聚类中心来近似,对应的编码为中心的id
    • ○ 查询
      • ■ 输入:128的查询向量
      • ■ 1. 还是分词4个子段
      • ■ 2. 计算每个子段到子空间所有聚类中心的距离,可以得到4*256个距离,存到cache里面,后续遇到具体样例的距离计算,可以通过查表得到
    • ○ 特点分析
      • ■ 时间
        • ● 相对于brute-force search,只需要计算4*256词,几乎可以忽略此时间
      • ■ 内存
        • ● 用一个相对比较短的编码来表示样本,内存消耗大大小于brute-force search
2.2.4 倒排乘积量化 IVFPQ
  • ● 倒排乘积量化,IVFPQ
    • ○ 背景:PQ乘积量化,还是需要计算4*256次,对每个样本,还是要挨个求和相加计算距离-> 有没有方法
    • ○ 方法:先聚类,以聚类为中心构建索引,然后后面的步骤和PQ一致,先划分成子空间,然后子空间聚类,然后再编码…
    • ○ 查询:先粗量化,快速定位属于哪个c_i,然后再在该兴趣区域按PQ乘积向量化距离计算方式计算距离

2.2 检索方法2-基于图

  • ● 基于空间划分的缺点:
    • ○ 为了提高召回率,每个向量只会属于某个子区域,需要搜索较大的空间,导致计算量增加。
  • ● 基于图的方法概述
  • ○ 基础想法:邻居的邻居也可能是邻居
  • ○ 方法有:KGraph,NSG,HNSW,NGT
2.2.1 NSW(Navigable Small World)可导航的小世界
  • ● NSW总结
    • ○ 可导航的小世界?
    • ○ 一些定义
      • ■ Regular graph:每个顶点邻居数目相同
      • ■ Random graph:每个顶点的邻居数目是随机的
      • ■ small world graph:介于上面两者之间
        • ● 特点:
          • ○ 同质性:相似的顶点聚集在一起,相互连接具有相邻边
          • ○ 若链接:每个顶点上会有一些随机的边连接到网络中的顶点上
    • ○ 原理:构建small world graph->随机选择一个其实顶点->遍历邻居节点->选择与目标最近的顶点继续遍历->直到找到最近的顶点
    • ○ 图的构造
      • ■ 随机
      • ■ 向图中逐个插入顶点:找到与新顶点最近的m个顶点,将新顶点与他们连起来形成边
      • ■ 刚开始构造的边大概率是高速公路->可以加速查找
    • ○ 查找:
      • ■ 从enter pointer顶点开始查找->查找绿色的邻居顶点,可以通过高速公路机制快速找到结果
    • ○ 缺点:
      • ■ 通过节点的随机插入引入随机性->构建出small world graph,但是图的构造不稳定,节点之间的差异大
      • ■ 先插入的顶点,链接的邻居节点,基本都比较远(弱连接属性强)
      • ■ 后插入的顶点,其连接的邻居节点,基本都比较近(弱连接属性弱)
      • ■ 聚类效应的点,后续插入的点可能都和其建立连接,对应节点的度可能比较高
2.2.2 HNSW(Hierarchical Navigable Small World),分层导航小世界
  • ● HNSW总结
    • ○ HSW缺点:
      • ■ 通过节点的随机插入引入随机性->构建出small world graph,但是图的构造不稳定,节点之间的差异大
      • ■ 先插入的顶点,链接的邻居节点,基本都比较远(弱连接属性强)
      • ■ 后插入的顶点,其连接的邻居节点,基本都比较近(弱连接属性弱)
      • ■ 聚类效应的点,后续插入的点可能都和其建立连接,对应节点的度可能比较高
    • ○ 如何构造更稳定的small world graph->NSW->对图进行分层->由粗到细的检索->HNSW
    • ○ 构建步骤
      • ■ layer=0,包含数据集所有点
      • ■ layer=1,以50%的概率随机从layer0选择点构成
      • ■ layer=l,以50%的概率随机从layer l-1选择点构成
      • ■ 插入图时,先计算新顶点可以深入到第几层,在每层的NSW图中,找到m个邻居,并链接他们
    • ○ 查询:
      • ■ 从最高层开始检索,逐层往下,从而实现快速搜多
    • ○ 特点:
      • ■ 度量效果
      • ● cos距离效果很好,内积不佳
      • ● 内积距离不满足三角不等式,dx+dy!>不一定大于dz,因距离没有传递性
  • ● 工具:
    • ○ hnswlib
      • ■ C++版:https://github.com/nmslib/hnswlib.gitPython版:pip install hnswlibJava版:https://github.com/jelmerk/hnswlib.git
    • ○ faiss
      • ■ https://github.com/facebookresearch/faiss.git
    • ○ annoy
      • ■ C++版:https://github.com/spotify/annoy.gitPython版:pip install annoy==1.0.3

三、向量检索使用入门

一文入门Facebook开源向量检索框架Faiss:https://zhuanlan.zhihu.com/p/266589272

你可能感兴趣的:(nlp学习,nlp_paper,nlp,哈希算法,算法,向量检索,HNSW,PQ)