分布式机器学习(上)-并行计算与机器学习

本视频来源于Shusen Wang讲解的《分布式机器学习》,总共有三讲,内容和连接如下:

  • 并行计算与机器学习(上)
  • 并行计算与机器学习(下)
  • 联邦学习:技术角度的讲解

这一节讲解《并行计算与机器学习(上)》,这节课的主要内容:

  • Motivation:并行计算有什么用?为什么机器学习的人需要懂并行计算。
  • 最小二乘回归。
  • 用并行计算来解最小二乘回归。
  • 并行计算中的通信问题。
  • MapReduce,已经如何用MapReduce实现并行梯度下降,以及通信、同步的问题
分布式机器学习(上)-并行计算与机器学习_第1张图片

首先,我们为什么需要对机器学习进行并行计算呢?这点其实很好理解,因为:

  • 机器学习模型通常很大:如ResNet-50有2500万个参数
  • 大模型是基于大数据训练的,比如ImageNet有1400万张图片
  • 大模型和大数据共同构成了大的计算开销
  • 利用并行计算可以使得运算更快(此处指的是钟表时间而不是总的计算量)

我们先以最小二乘法为例开始讲解:

分布式机器学习(上)-并行计算与机器学习_第2张图片

最小二乘法的目标如上图所示,我们希望找到 w w w 使得 L ( w ) L(w) L(w) 最小。那么我们就是要求这么一个梯度:

分布式机器学习(上)-并行计算与机器学习_第3张图片

假如我们有两块处理器,我们就可以将数据分为两份,由两个处理器分别执行,然后执行完再对数据进行合并(通信),如下:

分布式机器学习(上)-并行计算与机器学习_第4张图片

通信的目的是做Aggregation,一般有两种通信方法,分别是 Share memory 和 Message passing。

分布式机器学习(上)-并行计算与机器学习_第5张图片

Share memory 的架构图如上,简单来说就是不同的处理器共享一块内存,然后他们可以共同访问这一块内存,这样就很容易实现通信。这种方法有着一定的限制,因为处理器要连着同一个内存,这样就没办法同时用很多处理器进行工作,规模是上不去的。

分布式机器学习(上)-并行计算与机器学习_第6张图片

另一种方法叫做 Message passing,有多个节点,节点的处理器之间是可以采用共享内存,节点之间不能共享内存。节点之间可以网线相连接也可以使用 TCP/IP 进行消息传递。这种方式可以适用于大规模的计算。做并行计算的时候,一个很重要的点是如何协调这些节点,于是我们有了 Client-Server 架构:

分布式机器学习(上)-并行计算与机器学习_第7张图片

我们把一个节点作为server,用来协调其他节点,其他节点作为worker,用于计算。

分布式机器学习(上)-并行计算与机器学习_第8张图片

另一种架构叫做P2P架构,每个节点有邻居,邻居之间可以通信。

然后我们讲一下如何用MapReduce做并行梯度下降。这个是MapReduce的简单介绍。

MapReduce是Client-Server架构,Server可以把信息广播到worker节点。Server先定义一个 Map 操作,这个 Map 操作是由worker节点完成,然后worker把结果传回client并处理,这个叫做reduce。

分布式机器学习(上)-并行计算与机器学习_第9张图片

利用 MapReduce 做并行梯度计算的过程如上,过程也比较通俗易懂就不在加以解释了

那么假如有 m m m 个节点的话,我们可以吧数据均匀分给他们,那么差不多每个worker的运行时间变成了 1 / m 1/m 1/m,当然实际上是不会降到那么低,因为还有同步的时间。这个加速比实际上如下图所示:

分布式机器学习(上)-并行计算与机器学习_第10张图片

真实情况加速比实际上是到不了 m m m 的,如果算法或者模型不好,通信时间可能比计算时间要长很多。通信时间由两部分构成,一个是通信复杂度,一个是网络延迟。

分布式机器学习(上)-并行计算与机器学习_第11张图片

还有一部分开销是由同步造成的,因为worker是有快有慢造成的。假如一个节点挂掉了那大家都得等它。

分布式机器学习(上)-并行计算与机器学习_第12张图片

这种情况下,这个节点就叫做straggler,其会导致钟表时间增大,因为要等这个节点。概括一下,这节课程讲了一下几点:

  • 梯度下降可以用 MapReduce 进行并行化。
  • 并行化的过程中,数据被分给 worker 进行计算。
  • 每一个梯度下降过程包含一个广播、map和一个 reduce 操作。
  • 主要有计算代价、通信代价和同步代价。
  • 如果有 m m m 个 worker,那么加速比是低于 m m m 的。

欢迎关注公众号《差分隐私》

你可能感兴趣的:(分布式机器学习(上)-并行计算与机器学习)