3.5. 通信频率优化

说明:本章内容仅适用于飞桨静态图分布式。

在网络带宽较低的训练场景(如:公有云上训练,联邦训练)中,梯度同步在低带宽网络下的延迟成为训练速度的主要瓶颈。Fleet作为Paddle通用的分布式训练API实现了:Deep Gradient CompressionLocal SGD两种训练策略来针对性解决这一问题。

3.5.1. DGC 优化低配网络的分布式GPU训练

3.5.1.1. DGC 简介

大规模分布式训练需要较高的网络带宽以便进行梯度的聚合更新,这限制了多节点训练的扩展性,同时也需要昂贵的高带宽设备。在低带宽的网络环境下进行分布式训练时,梯度同步成为训练加速的瓶颈。Deep Gradient Compression发现:分布式SGD中有99.9%的梯度交换都是冗余的,可以使用深度梯度压缩选择重要梯度进行通信来减少通信量,降低对通信带宽的依赖。Fleet实现了DGC的稀疏通信方式,可有效在低配网络下进行GPU分布式训练。Fleet实现了DGC论文中的预热训练 (warming up training)动量修正 (Momentum Correction)局部梯度修剪 (local gradient clipping)动量因子掩藏 (Momentum factor masking)等策略,以及正则化项修正 (Weight Decay Correction)避免稀疏梯度通信训练带来的最终模型精度损失。

下面将介绍 DGC 稀疏通信方式的适用场景、试验效果、基本原理和使用方法。

3.5.1.1.1. 适用场景

DGC稀疏通信在低带宽通信瓶颈时会有较大的性能提升,但在单机多卡及RDMA网络通信并非瓶颈情况下,并不会带来性能上的提升。同时由于AllGather的通信量会随卡数的增多而增大,所以DGC的多机训练规模也不宜过大。故DGC适用于低配网络,同时节点规模不宜过大,如大于128张卡。在云网络或高带宽网络设备昂贵时,DGC可有效降低训练成本。

3.5.1.2. 试验效果

  • 模型:FasterRCNN

  • 硬件: P40两机分布式,每台机器一卡,TCP网络测试。

  • 取300-700步耗时/400step。

  • 精度无损。

实验结果如下表所示:

带宽

训练耗时-Momentum(step /s)

训练耗时-DGCMomentum(step /s)

加速比

100G

0.3725

0.375

0.993

10G

0.55

0.375

1.467

1G

2.45

0.375

6.533

3.5.1.3. DGC 原理简介

这里将简单介绍介绍Fleet DGC中的一些原理和对应参数应该如何设置。

3.5.1.3.1. 梯度稀疏

DGC的基本思路是通过只传送重要梯度,即只发送大于给定阈值的梯度来减少通信带宽的使用。为避免信息的丢失,DGC会将剩余梯度在局部累加起来,最终这些梯度会累加大到足以传输。换个角度,从理论依据上来看,局部梯度累加等同于随时间推移增加batch size,(DGC相当于每一个梯度有自己的batch size)。

假设 N是训练节点个数, b为单卡batch size,局部梯度累加可以被认为batch size从\(Nb\)增大为\(NbT\),其中T是两次更新的稀疏通信间隔。详细的公式推导请参阅[1]

3.5.1.3.2. 预热调参

对于正常的训练,使用DGC一般需进行预热训练,否则可能会有精度损失。由于paddle稀疏梯度聚合通信使用了AllGather,通信量会随卡数增加而增长,所以在卡数较多时不推荐较低稀疏度的预热训练。参数设置如下:

# 1. 以1252个step为一个epoch,前2个epochs使用正常dense通信,后3个epochs逐步提升稀疏度为99.9%
strategy.dgc_configs = {
    "rampup_begin_step": 1252*2,
    "rampup_step": 1252*3,
    "sparsity": [0.984375, 0.996, 0.999]
}
# 2. 前面4个epochs都使用dense通信,之后默认0.999稀疏度运行
strategy.dgc_configs = {
    "rampup_begin_step": 1252*4,
    "rampup_step": 1,
    "sparsity": [0.999]
}

对于Fine-tuning训练,可无需预热训练,从第0个epoch直接使用DGC即可。

# 从第0步开始DGC稀疏通信
strategy.dgc_configs = {
    "rampup_begin_step": 0,
    "rampup_step": 1,
    "sparsity": [0.999]
}

3.5.1.3.3. 局部梯度累加改进

正常情况,稀疏更新会严重影响收敛性。DGC中采用动量修正(Momentum Correction)、局部梯度裁减(Local Gradient Clipping)、动量因子掩藏和正则化项修正4个策略来解决这个问题。

3.5.1.3.3.1. 动量修正

上文”局部梯度累加等同于随时间推移增加batch size“的推导没有考虑Momentum存在的情况。当稀疏度很高时,使用原始Momentum公式会显著降低模型性能,所以需要在原始公式的基础上对梯度进行修正。

动量修正使用部累加速度项\(u_t\)而非累加真实的梯度\(\nabla_{k, t}\)来修改Momentum方程,修正后的动量更新公式如下:

\[u_{k, t}=m u_{k, t-1}+\nabla_{k, t}, \quad v_{k, t}=v_{k, t-1}+u_{k, t}, \quad w_{t+1}=w_{t}-\eta \sum_{k=1}^{N} \operatorname{sparse}\left(v_{k, t}\right)\]
3.5.1.3.3.2. 局部梯度修剪

梯度修剪是防止梯度爆炸的常用方法。这方法由Pascanu等人在2013年提出,当梯度的l2-norms和大于给定阈值时,就对梯度rescale。正常梯度修剪在梯度聚合后使用,而DGC因为每个节点独立的进行局部梯度累加,所以DGC在使用\(G_t\)累加前对其进行局部梯度修剪。阈值缩放为原来的\(N^{-1/2}\)

3.5.1.3.3.3. 动量因子掩藏

因为推迟了较小梯度更新权重的时间,所以会有权重陈旧性问题。稀疏度为99.9%时大部分参数需600到1000步更新一次。迟滞效应会减缓收敛并降低模型精度。DGC中使用下面方程来掩藏动量因子减缓陈旧性问题。

\[Mask \leftarrow\left|v_{k, t}\right|>t h r, \quad v_{k, t} \leftarrow v_{k, t} \odot \neg Mask, \quad u_{k, t} \leftarrow u_{k, t} \odot \neg Mask\]

此掩码可以停止延迟梯度产生的动量,防止陈旧梯度把权重引入错误的方向。

3.5.1.3.3.4. 正则化(Weight Decay)项修正

类似动量修正,DGC中我们同样需要对正则化项进行修正来让参数的延迟更新方向更加准确。

和动量修思路相同,修正需要在局部梯度上添加局部Weight Decay。

\[\nabla_{k, t}=\nabla_{k, t}+\frac{\lambda}{N} w_{t}\]

上述策略已经在Fleet 框架中实现,用户无须设置。

3.5.1.4. DGC 快速开始

下文以单机八卡上训练ResNet50为例子简单介绍Fleet中DGC的使用。因为8张GPU的通信都在同一节点内, 一般情况下梯度通信并不会成为训练的瓶颈,这里只是以其为例子,介绍Fleet中DGC参数的设置。

注意

  • 硬件环境要求: DGC目前只支持GPU多卡及分布式collective训练,需要有相应的cuda、cuDNN、nccl环境。

  • Paddle环境要求:DGC只支持GPU,所以需GPU版本的Paddle。

3.5.1.4.1. DGC 相关策略

这里假设:1252个step为一个epoch,前2个epochs使用正常dense通信,后3个epochs逐步提升稀疏度为99.9%,则

  • rampup_begin_step (int):DGC(含预热训练)开始的step。

  • rampup_step (int):DGC中预热训练持续的step。如果sparsity是[0.75, 0.9375, 0.984375, 0.996, 0.999],rampup_step设成100时,在0~19 steps时sparsity=0.75,在20~39 steps时sparsity=0.9375,依次类推。

  • sparsity (list[float]):稀疏度threshold, (1 - current sparsity)% 的gradient将会被allreduce。

strategy = fleet.DistributedStrategy()

strategy.dgc = True
strategy.dgc_configs = {
    "rampup_begin_step": 1252*2,
    "rampup_step": 1252*3,
    "sparsity": [0.984375, 0.996, 0.999]
}

基于ResNet50网络的DGC代码:example/resnet/train_fleet_static_dgc.py

假设要运行2卡的任务,那么只需在命令行中执行:

python -m paddle.distributed.launch --gpus=0,1 train_fleet_static_dgc.py

3.5.2. 使用Local SGD 优化低带宽下分布式训练

3.5.2.1. 简介

在使用distributed SGD进行数据并行的分布式训练时,常会遇到以下两个问题:

  • 分布式训练的吞吐会受到集群中随机慢节点(straggling node)和通信延迟的影响。

  • 数据并行分布式增大了训练实际的batch size,过大的batch size会影响最终的训练精度。

Local SGD通过延长节点间同步的间隔(局部异步训练)来减轻慢节点的影响和减少通信频率,以此提升训练的吞吐。

3.5.2.2. 原理介绍

Local SGD减轻慢节点的影响和减少通信频率,提升训练的吞吐。为了减小相对于本地训练(小batch size)的精度损失,[1][2]分别提出了:post-Local SGD自适应步长 (Adaptive Communication) Local SGD策略,来减少参数同步频率降低带来的精度损失。

在Local SGD训练中,集群中的每个训练进程各自会独立的进行H个连续的SGD更新,然后集群中的所有训练进程会进行通信,同步(averaging)所有训练进程上的参数。

Local SGD中的一个关键问题是如何确定参数同步的间隔(频率),以达到训练吞吐和训练精度间更好的平衡[1]

  • 增大参数同步的间隔可以减少训练进程间通信延迟的影响提高训练吞吐,

  • 但增大同步间隔可能会造成最终训练精度的损失。

以下两个策略从不同角度试图达到更好的平衡:

  • post Local SGD将训练过程分成两个阶段:第一阶段训练进程间同步的间隔为1个步长,即同步SGD,来保证最终训练精度;在第二阶段增大同步间隔到固定常数H,来提升训练吞吐。

  • Adaptive Communication Local SGD通过动态的调整参数同步的间隔来尝试达到训练吞吐和精度间的更好的平衡。

Fleet中实现了post Local SGDAdaptive Communication Local SGD两种策略。

3.5.2.3. 功能效果

实验设置

model

dataset

local batch size

cluster

dtype

warming up

learning rate decay

resnet50

Imagenet

128

4 x 8 x V100

FP32

30

polynomial

实验结果

local step

qps

acc1

acc5

1

8270.91

0.7579

0.9266

2

8715.67

0.7533

0.9265

4

8762.66

0.7551

0.9260

8

9184.62

0.7511

0.9239

16

9431.46

0.7429

0.9206

ADACOMM

8945.74

0.7555

0.9270

可以看到在post Local SGD(固定同步间隔)情况下,更新间隔越长训练的吞吐越高,但是模型的最终精度也会损失越大。当使用 ADAPTIVE COMMUNICATION策略后,训练在吞吐和精度间达到了一个更好的平衡。

3.5.2.4. 使用方法

下文将以单机8卡训练ResNet50为例子,简单介绍Local SGD的用法。需要注意的是单机八卡的通信都在同一机器节点内,一般情况下参数同步不会成为训练的瓶颈,这里只是以其为例子,介绍Fleet中Local SGD参数的设置。

3.5.2.4.1. 定义Local SGD 相关策略

用户首先需要定义paddle SGD 对象,并在SGD对象中设置学习率参数。目前local SGD和自适应步长local SGD都仅支持SGD和Momentum两种优化器。

  • post Local SGD中,有两个参数begin_stepk_steps,局部更新和参数同步都由框架自动完成。begin_step指定从第几个step之后进行local SGD算法,取值为大于0的整数;k_step指定训练过程中的全局参数更新间隔,取值为大于0的整数。

strategy = fleet.DistributedStrategy()
strategy.localsgd = True
strategy.localsgd_configs = {
    "k_steps": 1,
    "begin_step": 1,
}
  • 自适应步长 local SGD中,有两个参数begin_stepinit_k_steps。begin_step 指定从第几个step之后进行自适应local SGD算法,取值为大于0的整数;用户需要设置init_k_steps作为第一次参数同步的间隔,之后的同步间隔将由动态确定:在学习率较大时,参数变化大,减小step,多进行通信从而保证快速收敛;在学习率较小时,参数变化小,增大step,减少通信次数,从而提升训练速度。需要注意的是在自适应步长策略中,系统会默认限制最大的同步间隔为16 step,当计算出的间隔大于16时,按16 steps进行参数同步。

strategy = fleet.DistributedStrategy()
strategy.adaptive_localsgd = True
strategy.adaptive_localsgd_configs = {
    "init_k_steps": 1,
    "begin_step": 1,
}

上述例子存放在:example/resnet/train_fleet_static_localsgd.py下面。

假设要运行2卡的任务,那么只需在命令行中执行:

python -m paddle.distributed.launch --gpus=0,1 train_fleet_static_localsgd.py

您将看到显示如下日志信息:

-----------  Configuration Arguments -----------
gpus: 0,1
heter_worker_num: None
heter_workers:
http_port: None
ips: 127.0.0.1
log_dir: log
...
------------------------------------------------
...
INFO 2021-01-18 22:01:11,969 launch_utils.py:472] Local start 2 processes. First process distributed environment info (Only For Debug):
   +=======================================================================================+
   |                        Distributed Envs                      Value                    |
   +---------------------------------------------------------------------------------------+
   |                 PADDLE_CURRENT_ENDPOINT                 127.0.0.1:10913               |
   |                     PADDLE_TRAINERS_NUM                        2                      |
   |                PADDLE_TRAINER_ENDPOINTS         127.0.0.1:10913,127.0.0.1:14758       |
   |                     FLAGS_selected_gpus                        0                      |
   |                       PADDLE_TRAINER_ID                        0                      |
   +=======================================================================================+
...
W0118 22:01:20.860090 45921 device_context.cc:362] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 10.2, Runtime API Version: 9.2
W0118 22:01:20.864220 45921 device_context.cc:372] device: 0, cuDNN Version: 7.4.
W0118 22:01:25.578325 45921 gen_nccl_id_op_helper.cc:115] connect addr=127.0.0.1:14758 failed 1 times with reason: Connection refused retry after 0.5 seconds
[Epoch 0, batch 0] loss: 0.14602, acc1: 0.00000, acc5: 0.03125
[Epoch 0, batch 5] loss: 0.16445, acc1: 0.00000, acc5: 0.06250

需要注意的是,不同飞桨版本,上述信息可能会有所差异。