sphereface+:《Learning towards Minimum Hyperspherical Energy》论文精读
摘要:神经网络是一种强大的非线性函数,可以在很多应用上进行端到端的训练。同时,过度的参数化的本性使得它可以拟合非常复杂的函数,具有非常强大的表达能力,可以解决非常困难的任务,也会导致出现高度相关性的神经元,会伤害到模型的泛化能力,并导致不必要的计算的损耗。因此,如何对网络进行正则化,避免冗余的表达能力,就成为了非常重要的问题。为了这个目的,我们从一个非常有名的物理问题中得到启发—Thomsonpr