NeurIPS 2020论文推荐丨Attack of the Tails:利用联邦学习

论文名称:Attack of the Tails: Yes, You Really Can Backdoor Federated Learning

论文链接:https://www.aminer.cn/pub/5f0c26af91e0115455a34adb/?conf=neurips2020

推荐理由:由于其分散的本质,联邦学习(Federated Learning)在训练过程中容易受到后门形式的对抗性攻击。后门的目标是破坏训练后的模型在特定子任务上的性能(例如,通过将绿色汽车分类为青蛙)。相关文献中介绍了一系列的FL后门攻击,同时也介绍了防御这些攻击的方法,目前FL系统是否可以被设计为针对后门具有鲁棒性仍是一个未知的问题。在这项工作中,作者提供了反面的证据。作者首先说明,在一般情况下,对后门的鲁棒性意味着模型对于对抗样例的鲁棒性,这本身就是一个重大的开放问题。此外,检测FL模型中的后门的存在是不可能在一阶oracle或多项式时间完成的。作者将其理论结果与一个新的后门攻击类别结合,称之为边缘案例后门。边缘案例后门迫使模型在看似容易的输入上误分类,这种输入常常不被用作训练部分或测试数据,即他们存在于在输入分布的尾部。作者解释了这些边缘案例后门如何导致失败,这些情况可能对公平性产生严重影响,同时展示了通过在对手方面的细致调整,人们能够在一系列机器学习任务中(例如,图像分类,OCR,文本预测,情感分析)插入它们。

会议链接:https://www.aminer.cn/conf/neurips2020

订阅了解更多论文信息,定制您的个人科研动态信息流:https://www.aminer.cn/user/notification

#NeurIPS 2020# #AMiner#
NeurIPS 2020论文推荐丨Attack of the Tails:利用联邦学习_第1张图片

你可能感兴趣的:(AMiner会议,AMiner会议论文推荐,机器学习,深度学习,人工智能)