Scaling Down, LiTting Up: Efficient Zero-Shot Listwise Reranking with Seq2seq Encoder-Decoder Models
Q:这篇论文试图解决什么问题?A:这篇论文介绍了两种基于T5模型的零样本列表重排方法,旨在提高列表重排的效率。作者提出了两个研究问题:1)序列到序列的编码器-解码器模型是否可以适应列表重排?2)是否可以将更大模型的重排效果提炼到更小的序列到序列编码器-解码器重排模型中?为了回答这些问题,作者提出了两种方法:LiT5-Distill和LiT5-Score。LiT5-Distill通过蒸馏从更大的Ra