本视频来源于Shusen Wang讲解的《分布式机器学习》,总共有三讲,内容和连接如下:
这一节讲解《并行计算与机器学习(上)》,这节课的主要内容:
- Motivation:并行计算有什么用?为什么机器学习的人需要懂并行计算。
- 最小二乘回归。
- 用并行计算来解最小二乘回归。
- 并行计算中的通信问题。
- MapReduce,已经如何用MapReduce实现并行梯度下降,以及通信、同步的问题
首先,我们为什么需要对机器学习进行并行计算呢?这点其实很好理解,因为:
- 机器学习模型通常很大:如ResNet-50有2500万个参数
- 大模型是基于大数据训练的,比如ImageNet有1400万张图片
- 大模型和大数据共同构成了大的计算开销
- 利用并行计算可以使得运算更快(此处指的是钟表时间而不是总的计算量)
我们先以最小二乘法为例开始讲解:
最小二乘法的目标如上图所示,我们希望找到 $w$ 使得 $L(w)$ 最小。那么我们就是要求这么一个梯度:
假如我们有两块处理器,我们就可以将数据分为两份,由两个处理器分别执行,然后执行完再对数据进行合并(通信),如下:
通信的目的是做Aggregation,一般有两种通信方法,分别是 Share memory 和 Message passing。
Share memory 的架构图如上,简单来说就是不同的处理器共享一块内存,然后他们可以共同访问这一块内存,这样就很容易实现通信。这种方法有着一定的限制,因为处理器要连着同一个内存,这样就没办法同时用很多处理器进行工作,规模是上不去的。
另一种方法叫做 Message passing,有多个节点,节点的处理器之间是可以采用共享内存,节点之间不能共享内存。节点之间可以网线相连接也可以使用 TCP/IP 进行消息传递。这种方式可以适用于大规模的计算。做并行计算的时候,一个很重要的点是如何协调这些节点,于是我们有了 Client-Server 架构:
我们把一个节点作为server,用来协调其他节点,其他节点作为worker,用于计算。
另一种架构叫做P2P架构,每个节点有邻居,邻居之间可以通信。
然后我们讲一下如何用MapReduce做并行梯度下降。这个是MapReduce的简单介绍。
MapReduce是Client-Server架构,Server可以把信息广播到worker节点。Server先定义一个 Map 操作,这个 Map 操作是由worker节点完成,然后worker把结果传回client并处理,这个叫做reduce。
利用 MapReduce 做并行梯度计算的过程如上,过程也比较通俗易懂就不在加以解释了
那么假如有 $m$ 个节点的话,我们可以吧数据均匀分给他们,那么差不多每个worker的运行时间变成了 $1/m$,当然实际上是不会降到那么低,因为还有同步的时间。这个加速比实际上如下图所示:
真实情况加速比实际上是到不了 $m$ 的,如果算法或者模型不好,通信时间可能比计算时间要长很多。通信时间由两部分构成,一个是通信复杂度,一个是网络延迟。
还有一部分开销是由同步造成的,因为worker是有快有慢造成的。假如一个节点挂掉了那大家都得等它。
这种情况下,这个节点就叫做straggler,其会导致钟表时间增大,因为要等这个节点。概括一下,这节课程讲了一下几点:
- 梯度下降可以用 MapReduce 进行并行化。
- 并行化的过程中,数据被分给 worker 进行计算。
- 每一个梯度下降过程包含一个广播、map和一个 reduce 操作。
- 主要有计算代价、通信代价和同步代价。
- 如果有 $m$ 个 worker,那么加速比是低于 $m$ 的。
本篇内容到这里就结束了,欢迎关注公众号《差分隐私》,获取更多前沿技术。