【论文学习11】GIANT: Globally Improved Approximate Newton Method for Distributed Optimization
前言分布式算法中经常使用梯度信息来进行优化,一阶方法有:SGD、加速SGD、方差减少SGD、随机坐标减少、双坐标提升方法。这些方法减少了本地计算,但同时需要更多迭代次数和更多的通信量。SummaryForbig-dataproblems,distributedoptimizationisveryuseful.Ifthenetworkisslow,thencommunicationisthebott