HAT: Hardware-Aware Transformers for Efficient Natural Language Processing论文解读
paper:HAT:Hardware-AwareTransformersforEfficientNaturalLanguageProcessingcode:https://github.com/mit-han-lab/hardware-aware-transformers1介绍Transformer网络取得了非常大的成功并具有广泛的应用。然而由于它巨大的计算代价,使得部署到手机等端侧设备面临巨大的