[论文笔记]MobileBERT

引言

今天带来一篇关于量化的论文MobileBERT,题目翻译过来是:一种适用于资源有限设备的紧凑型任务无关BERT模型。模型的简称是MobileBERT,意思是作者的这个BERT模型可以部署到手机端。

本篇工作,作者提出了MobileBERT用于压缩和加速BERT模型。与原始BERT一样,MobileBERT也是任务无关的,即它仅需简单的微调就能广泛地应用于不同的下游任务。本质上,MobileBERT是一个精简版的BERT-large,配备了瓶颈结构(bottleneck structure)和精心设计的自注意力和前馈网络之间的平衡。

要训练MobileBERT,作者首先训练一个特别的教师模型,一个集成了倒置瓶颈的BERT-large模型。然后,将知识从教师模型转移到MobileBERT上。

总体介绍

BERT自提出来之后在各种NLP任务上的效果惊人,但由于BERT的规模较大,存在参数量过大和高延迟问题,使它不可能部署到资源受限的移动设备上,来进行手机上的机器翻译、对话管理等。

已经有一些工作将BERT压缩为任务相关的紧凑模型。但还没有任何工作来构建一个任务无关的轻量级预训练模型,即一个可以像原始的BERT一样在不同的下游任务上进行通用微调的模型。本篇工作,作者提出MobileBERT来填补这个空白。实际上,任务无关的BERT压缩是可行的。

任务相关的压缩需要先将原始大BERT模型微调为任务相关的教师模型,然后进行蒸馏。这个过程比直接微调任务无关的紧凑模型更复杂,且成本更高。

但获得一个任务无关的紧凑BERT可能没有想象的那么简单,比如简单地选择一个更窄或更浅的BERT模型&#

你可能感兴趣的:(论文翻译/笔记,论文阅读,MobileBERT,模型蒸馏)