导语 |腾讯 AI Lab,长期致力于大规模全文搜索引擎的开发、优化及运营,在海量数据搜索系统及 Query 分析、检索排序等 NLP 能力上有深厚的技术积累。近一年来,我们基于原有的搜索系统,取精华去糟粕,结合多年来遇到的问题和痛点,重新构建了新一代的搜索系统 TurboSearch。TurboSearch 继承了原系统在海量索引及运营方面的能力,同时降低整体复杂程度,使得搜索系统有更好的易用性、拓展性和私有化部署能力。另外 TurboSearch 在并发能力、多粒度索引、多模态/向量等多个维度进行延伸和扩展。(本文作者:一拳达摩,编辑:尾尾)
腾讯 AI Lab多年一直在搜索领域进行深耕和积累,继搜搜网页搜索之后,陆续服务于微信搜一搜(公众号文章、朋友圈、视频)、应用宝搜索、地图搜索、音乐搜索、视频搜索、手Q、QQ群等精品垂直搜索业务,以及云搜中小数据搜索业务。
从网页搜索继承下来的搜索系统,经过多年的需求迭代,越来越难以支撑结构级新特性更新。因此我们投入精力对整体系统重构和优化,重新构建了大规模、轻量级、松耦合、可裁剪、低运营成本,具有完整解决方案的新一代搜索系统 TurboSearch 。主要有以下特性:
完整的 分布式、海量 搜索系统及运营解决方案
支持便捷 私有化部署
高性能索引及 并行检索
支持 多粒度索引 及检索
支持普通检索、分类检索、WAND 及精细化的检索层过滤逻辑
核心组件 解耦,支持横向扩展,能力可裁剪
无缝对接腾讯 AI Lab 的各项 NLP 能力,涵盖 Query 分析及排序等多个领域
支持场景丰富,除传统的网页和各类非结构化垂类场景外,同时 可扩展 到多模态向量搜索场景
与业界部分开源引擎框架 ElasticSeach、Solr 等不同的是,TurboSearch 更倾向于面向在线高并发、大规模、低时延的检索需求,同时能够平行扩展到多模态场景,并提供完整的搜索运营能力,其对比如下表所示。
在 多模态/向量检索 领域,腾讯 AI Lab已经推出 GNES 检索系统,聚焦于内容对象的 Encoding,以及多种算法模型的平台化整合。同样在向量检索领域,TurboSearch 会逐步从索引层面,探索针对大规模向量数据集的高性能检索。并从向量索引、及系统化运营层面为 GNES 提供支持。
二、引擎框架介绍
TurboSearch 引擎主要有六大核心能力:
搜索核心组件:基础核心能力抽象和组件化,便于扩展,如索引计算、检索核心等。同时为了降低多进程资源开销,构建了多线程 C++ 检索通信框架 smqRPC。
搜索基础服务:基于搜索核心组件分层包装的检索服务,主要包括离线索引、在线检索及检索接入三大层次。支持包括内存、磁盘索引在内的分布式索引及检索环境。
搜索 OSS 体系:包括离线索引生成、在线索引滚动更新、检索干预、ABTest 等多项能力。后续将进一步完善包括好例、离线效果评估等其它精细化运营系统。
效果扩展组件:搜索效果随业务场景而变化,我们将打分排序解耦剥离,内置部分基础相关性排序功能,也可自定义排序。
API 组件:提供包括 SDK、smq 协议访问及 HTTP RESTful 接口等多种访问方式。
Query 分析能力:除了基础的分词之外,也具备同义词、纠错、时新性计算、意图识别、成分分析、非比留、新词发现等全面能力。
TurboSearch 基础框架如下图所示。
三、引擎特性
一个 Query 的搜索过程可以分为以下几个主要部分:
Query 分析(适用于网页和垂搜),包括切词、纠错、拓展、改写等。
检索召回,包括倒排求交、截断合并等。
打分排序,在 TurboSearch 中包含多层 rank 提高召回率。
然而,单次 Query 召回往往并不能达到搜索预期。比如,搜索 “吃鸡”,只召回吃饭相关的文章可能难以命中用户意图。将其拓展为 “和平精英”,或其他热点事件 Query,并将多次拓展结果融合,更容易命中用户意图。因此 TurboSearch 应对这样的 NLP 拓展能力,原生支持多次下发结果融合。
QRW 是 腾讯 AI Lab 多年积累的 Query 分析 NLP 服务,除了覆盖垂搜所需的 纠错/同义词/非比留/基础相关性 等基础能力之外,也涵盖了全网搜索所需具备的全部能力,如 Query改写/时新性/意图识别/成分分析/文本分档,等等。
在排序和召回层面,TurboSearch 设计了 5 层 Rank 来最大化提高召回率,从 L0 - L4 覆盖离线、倒排求交、精计算、全局精排等多个层面,为每个可能漏招环节做保障。
并行检索
文本检索召回的基础即倒排求交:
最耗时部分集中在 求交+L1 打分 和 L3 打分。在传统的程序设计中,这两部分均在单线程中串行执行。使得在高频词检索求交时,单次请求耗时难以控制。
TurboSearch 针对两个高耗时流程,采用多线程并行处理。将倒排索引切分,来并行化检索求交+L1:
我们做了一些 特殊的无锁多线程结果合并设计,避免合并结果等待导致闲置 CPU 的问题。负载未达 100% 时,平均检索耗时可大幅降低(数据集为长文本新闻数据 250w):
Weak-AND
Weak-AND 在广告或推荐等小数据集召回场景下,已经有较多的应用。在海量数据检索中,TurboSearch 正探索其在 长 Query 召回场景 下的应用。通过结合 Weak-AND 与 AND,平衡召回率和检索性能。
Weak-AND 的性能优化和场景探索将持续进行。
倒排性能优化
求交召回过程中,倒排的索引结构设计对求交耗时影响较大。内存实时索引倒排在设计上具有以下特性:
倒排索引需要支持高性能同时读写,写入新文档和读取倒排求交的能力。
需要写入共享内存避免进程停止导致索引需要重新加载。
倒排链中,存储块越多,性能越差,尽量避免倒排块数量过多。
TurboSearch 对内存倒排索引做以下设计:
其中:
BuddyAllocator 单线程运行, 分配释放处理能力达 1000w/s。
分超小块 CombinedChunk 和普通 SingleSlice,解决超短倒排存储率问题。
小块 SingleSlice 合并为大 SingleSlice,解决超长倒排中倒排块过多问题。
对比老架构固定块倒排索引:
不同于 N-gram 这种暴力索引方式,多粒度索引专注于文档与 Query 中的隐性词组发现,对正常分词补充。检索时先进行粗粒度词召回,如果粗粒度无结果或结果偏少,将再次进行细粒度词召回。通过这个方式来解决松散召回导致的紧邻结果截断问题。
如 “海底捞万象城店” 对应的粗粒度索引为 “P:海底捞 万象城 店”,保证结果能紧邻命中召回,如果在粗粒度检索无结果时,将再次使用 “海底捞”、“万象城”、“店” 进行检索召回。既保证了准确性,也能兼顾召回率。
对于海量数据搜索业务场景,脱胎于网页搜索的 TurboSearch 继承三种类型的索引集群结构:
FOB,全内存索引,支持实时增删。
GOB/NOB,内存倒排+正排,磁盘摘要,不支持实时增删。
WOB,磁盘索引,不支持实时增删。
根据不用搜索业务数据场景需求,可将各类索引集群组合达到设计目标。
TurboSearch 引擎考虑到自定义功能开发拓展,目前对以下核心功能做了插件支持:
过滤库 filter
打分库 score
求交 intersect
语法树 syntax
分词库 segment
TurboSearch 整体设计上支持私有化部署。在公司内网环境运营时,可使用已有的服务组件,如 CL5(名字服务)、Sumeru(资源管理) 等。然而在私有化部署场景下,这些公共服务难以一同打包部署。因此 TurboSearch 对这些功能 均有 内建相应能力,可选择使用,并基于以下设计支持私有化实现:
开发和部署上,较少的内部环境和外部项目依赖。
从运营系统、DB 环境、服务模块均可支持 Docker 部署。
完善独立设计的路由管理和资源管理。
以较小数据量的 FOB(实时内存索引系统)集群为例,离线、在线运营系统通过以下设计保证稳定持续服务:
全量数据平滑无缝版本更新,确保线上服务 不受数据滚动影响。
实时数据与全量滚动无缝衔接,确保滚动 不会导致实时数据缺失。
在现网运营中,检索召回排序无法保证所有 Query 达到最佳。对于一些突发高曝光 Badcase,需要有临时干预能力。TurboSearch 在接入层设计了干预系统,并沉淀积累了大量干预策略,可覆盖现网运营大部分干预需求。主要支持两大类干预类型:
通用干预规则,系统预先定义和实现了具体的干预处理逻辑。
自定义干预规则,提供干预规则的读写接口,满足不同业务的特定干预需求。
在持续优化的海量数据搜索业务运营过程中,会有持续或突发的 Badcase 需要定位。而一个海量数据搜索业务中,一般都是 多集群、多机服务、多层逻辑 的复杂系统。在整体系统中定位和诊断 Badcase 是一个复杂而困难的工作。比如一篇文档未被召回有以下多种可能:
文档数据入库问题,某些原因数据被删除或未入库。
求交篇数阶段问题,由于在线检索考虑耗时和性能问题,无法做到全求交召回,召回太多被截断。
求交超时截断问题,出于耗时限制,超高频词之间的求交过程常常会出现超时截断。
L1 打分低未进入 L3,L1 取 Top300 进入 L3,因此 L1 打分过低可能导致无法召回。
L3 打分低被合并截断,每一层检索转发 access 服务均会对召回结果按照打分取 TopN 截断返回。
L4 打分低或被过滤,多集群召回融合打分会丢弃掉一些文档。
语法树本身无法召回目标文档,下发的语法树全求交也不可能召回目标文档。
...
一篇文章有如此繁多的漏召回可能性。TurboSearch 从在线服务模块和离线数据流程两个方面入手,设计全流程的诊断,来协助快速定位召回和数据问题。
目前 TurboSearch 已可应用在 传统文本搜索、关系链搜索、LBS 位置相关搜索、中心聚类向量搜索 等场景。在持续改进引擎现有功能之外,我们还会做更多的探索:
持续优化 WAND 检索性能,以及分析拓展其使用的 Query 场景。
探索基于倒排索引,引入 知识实体的链接类搜索,比如搜索 “腾讯总办”,可从索引层面召回相应结果。
在 多模态/向量检索 领域,探索新结构索引,比如图式、树式索引来优化向量检索性能和效果。
逐步开源开放整个引擎,并构建协同开发生态。
---------下方更多精彩----------
文章推荐
点击图片即可了解详情
腾讯前CTO、“大师兄”张志东退休已经五年了。他出现在滨海大厦48层的办公室里,还是早年宅男工程师形象,POLO衫的两粒扣子都没扣。退休之后,除了一度沉溺“欢乐斗地主”,他有一个雷打不动的习惯:每两周上一次乐问。“乐问”是腾讯内部第一大沟通平台,他担心公司上下层“两个世界会割裂”,就在退休前建立了乐问。
他发现乐问上年轻人抱怨的声音越来越大——在这家以宽松文化著称的公司里,这里集中了最为尖锐的声音:程序员开发的代码相互都看不到。最糟糕的问题是:重复“造轮子”——这么大的科技公司,不少新产品的开发,都要重新把最基础的技术再做一遍,没法把已有的拿来使用。两万名技术人员源源不断地投入精力,重复技术,内耗严重。作为腾讯的技术元老,张志东被公司全体技术人员所尊敬,技术的抱怨让他难以接受。
作为退休“老干部”,他只能在跟总办成员吃饭的时候旁敲侧击。他提到,正在流行的技术中台,可以把大量标准化的技术拿来即用,不用每做一个产品都要从头到尾去开发技术——甚至5个人就能快速做出一个APP。
——《腾讯科技升级1000天:团战、登月与烟囱革命》
关注云加社区,回复 加群 加读者群
点在看,和朋友一起关注未来