译文:Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
摘要BERT(Devlinetal.,2018)和RoBERTa(Liuetal.,2019)已经在句子对回归任务上取得了最新最好的效果,比如语义文本相似任务(STS)。然而,这需要将两个句子的都喂给网络,这就引起大量的计算消耗:从你1万个句子中找相思对,就需要用BERT进行5千万推力计算(耗时约65小时)。BERT的结构不合适语义相似搜索,同样也不适用于类似聚类的无监督任务。在本论文中,我将呈现