雷锋网 AI科技评论按:本文作者王佐 ,文章首发于其知乎主页,AI科技评论获其授权转载。
在上一家公司就开始实践打磨一个深度优化的深度学习系统,当时从消除网络瓶颈,非凸优化,以及具体的深度学习算法等方面基于PaddlePaddle做了许多工作。目前公司主要深度学习算法都是跑在Tensorflow上,使用配置了GeForce GTX 1080的单机训练,一次完整的训练至少需要一周的时间,所以决定从优化Tensorflow多机并行方面提高算力。
更多的数据可以提高预测性能[2],这也意味着更沉重的计算负担,未来算力将成为AI发展的最大瓶颈。在大数据时代,解决存储和算力的方法是Scale out,在AI时代,Scale out也一定是发展趋势,并且大数据分析任务和AI/ML任务会共享处理设备(由于AI/ML迭代收敛和容错的特征,这两种任务未来不太可能使用统一平台),所以需要在分布式环境下优化资源配置[3],消除性能瓶颈。虽然现在Tensorflow能支持多机并行分布式训练,但是针对复杂网络,其训练速度反而不如单台机器[1]。目前已经有IBM[4]和Petuum[1]分别在其深度学习系统PowerAI 4.0和Poseidon中实现多机并行线性加速,本文介绍我如何通过消除Tensorflow的网络瓶颈,实现Tensorflow多机并行线性加速。
深度学习训练需要海量的数据,这就需要超大规模参数的网络模型拟合。如果训练数据不足,会造成欠拟合;如果网络模型参数太少,只会得到低精度的模型。目前常见网络模型参数已经上亿,参数大小达到数GB。[10]中给出了训练数据和参数大小一些例子。
训练数据和参数大小(来自[10])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/c15ad13ce430031e31a512a7cdd66adb.png" data-rawwidth="1414" data-rawheight="816" class="origin_image zh-lightbox-thumb" width="1414" data-original="https://pic3.zhimg.com/v2-013e8ea4f043797b12cf7e7dfbdb1416_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/c15ad13ce430031e31a512a7cdd66adb.png"/>
目前GPU已经成为深度学习训练的标配。GPU具有数量众多计算单元和超长流水线,并且具备强大并行计算能力与浮点计算能力,可以大幅加速深度学习模型的训练速度,相比CPU能提供更快的处理速度、更少的服务器投入和更低的功耗。这也意味着,GPU集群上训练深度学习模型,迭代时间更短,参数同步更频繁。[9]中对比了主流深度学习系统在CPU和GPU上的训练性能,可以看出GPU每次迭代的时间比CPU少2个数量级。
CPU训练alexnet(来自[9])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/07db9d30d9caad1a0c064429c344eaa1.png" data-rawwidth="2054" data-rawheight="714" class="origin_image zh-lightbox-thumb" width="2054" data-original="https://pic1.zhimg.com/v2-5ef2a86b8202365fbb676cacfbe671bc_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/07db9d30d9caad1a0c064429c344eaa1.png"/>
GPU训练alexnet(来自[9])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/689db188f914e8c1bc6d4d6fce62ca2e.png" data-rawwidth="2056" data-rawheight="718" class="origin_image zh-lightbox-thumb" width="2056" data-original="https://pic4.zhimg.com/v2-3c50cc6e96c88c46764f3e6aaaec80cb_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/689db188f914e8c1bc6d4d6fce62ca2e.png"/>
假设每0.5秒一个迭代,每个worker每秒需要通过网络传输的大于4GB,即使使用10GbE,参数同步也会瞬间把网络占满。考虑到训练数据可能通过NFS或者HDFS加载,也会占用很多网络带宽。在一个数据分析任务和AI/ML任务混合的环境中,大数据分析任务也会消耗很多网络带宽(如shuffle操作),网络延迟会更加严重。所以如果想以Scale out的方式提升算力,网络将是最大的瓶颈。[1]中通过实验证明,在8个节点进行Tensorflow分布式训练,对于VGG19网络,90%的时间花在等待网络传输上面。
网络开销(来自[2])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/260df569de224cdd612e507ee5daf120.png" data-rawwidth="1380" data-rawheight="588" class="origin_image zh-lightbox-thumb" width="1380" data-original="https://pic3.zhimg.com/v2-a1edd5cc197fd40d1432375cddeb145e_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/260df569de224cdd612e507ee5daf120.png"/>
分布式深度学习可以采用BSP和SSP两种模式。SSP通过允许faster worker使用staled参数,从而达到平衡计算和网络通信开销时间的效果[8]。SSP每次迭代收敛变慢,但是每次迭代时间更短,在CPU集群上,SSP总体收敛速度比BSP更快,但是在GPU集群上训练,BSP总体收敛速度比SSP反而快很多[6]。
BSP模型有个缺点,就是每次迭代结束,Worker需要发送梯度更新到PS,每次迭代开始,Worker需要从PS接收更新后的参数,这会造成瞬间大量的网络传输。参数服务器通过把参数切分成block,并且shard到多台机器,比较AllReduce,有效利用网络带宽,降低网络延迟。目前主流的深度学习系统(Tensorflow,Mxnet,Petuum)都选择用参数服务器做参数同步。
AllReduce(来自[5])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/0e1a24a70f8a36c2dc0a03cd4e12b4f7.png" data-rawwidth="600" data-rawheight="411" class="origin_image zh-lightbox-thumb" width="600" data-original="https://pic4.zhimg.com/v2-fa0f7b4badc003eb28fdb9ea000c4607_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/0e1a24a70f8a36c2dc0a03cd4e12b4f7.png"/>
Parameter Server
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/eb830c78712e158a97576d4b4feb683e.jpg" data-rawwidth="600" data-rawheight="426" class="origin_image zh-lightbox-thumb" width="600" data-original="https://pic3.zhimg.com/v2-b9cea2dc4d9bf33b5f09cb0a79afc14e_r.jpg" _src="https://static.leiphone.com/uploads/new/article/pic/201709/eb830c78712e158a97576d4b4feb683e.jpg"/>
上图可以很容易看出,AllReduce拓扑中,Reducer节点成为网络传输的瓶颈。PS拓扑中,通常每台机器启动相同数量的Worker和Parameter Server,每台机器的网络传输量基本相同。
ring AllReduce(来自[5])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/2124b26a83928097800ca1ecc876727e.png" data-rawwidth="745" data-rawheight="587" class="origin_image zh-lightbox-thumb" width="745" data-original="https://pic3.zhimg.com/v2-22f5e1067be77a713b3ef64e1b1a6392_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/2124b26a83928097800ca1ecc876727e.png"/>
对于多机多卡训练,可以把参数先在本机聚合,再指定一个worker跟参数服务器交互,可以大量减少网络传输。可以使用PaddlePaddle提出来的ring AllReduce,优化单机多卡的本地聚合。
解决瞬间大量的网络传输问题另一个方法是实现GPU计算和网络通信的Overlap。在反向传播的backward阶段产生梯度时,可异步地进行梯度更新,并立即计算下一层网络的梯度。梯度更新首先要把新梯度从GPU显存拷贝到CPU内存,这种GPU-CPU的拷贝也可以和GPU计算做overlap。因为PS是跑在CPU上,所以GPU计算也跟PS参数更新实现Overlap。
GPU计算和网络传输overlap(来自[1])
减少网络传输量也是消除网络瓶颈的有效途径。网络模型中90%参数集中在FC层。很多深度学习系统提出了减少FC层参数大小的方法,比如Adam中的Sufficient Factor,CNTK中的1-bit quantization,Petuum中的Sufficient Factor Broadcasting[7]。
在PS拓扑中,每个worker需要发送梯度 和接收参数 。SFB通过 将 转化为两个低维度矩阵 和 的传输,并采用P2P拓扑,每个worker本地更新参数,避免了参数 的传输。SFB和PS比较如下:
PS和SFB(来自[1])
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/9de63d872481511327ed194b744d783f.png" data-rawwidth="1152" data-rawheight="654" class="origin_image zh-lightbox-thumb" width="1152" data-original="https://pic1.zhimg.com/v2-bfb660c70978c3ddc194f34c9a35feb8_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/9de63d872481511327ed194b744d783f.png"/>
(1)PS使用Master-Server架构,而SFB使用P2P架构,每个worker将 和 发送给所有其他worker,每个worker通过 和 在本地更新参数 ,从而避免了PS中 的传输。
(2)PS每个worker的传输数据量是固定的,SFB每个worker的传输数据量跟总worker数有关,每个worker需要把 和 发送给其他worker(发送numWorkers - 1次)。
(3)SFB传输数据量还跟batch size有关。在非凸有限和问题中
, 其中 ,
在SGD中, 表示一个样本,在mini-batch SGD中, 表示batch size个样本。
首先得实现PS和SFB,可以参照petuum,ps-lite,angel。
Tensorflow 相关的修改主要有两个地方:
tensorflow/core/kernels/http://training_ops.cc中的ApplyXXXOp(ApplyGradientDescentOp,ApplyAdagradOp,ApplyMomentumOp等),将本地的梯度更新修改为 发送 ->PS端梯度更新->接收
tensorflow/core/kernels/http://matmul_op.cc中的MalMulOp::Compute,这里需要判断是否使用PS或者SFB,从而将本地更新切换为PS更新或SFB更新。
本地更新
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/ae10e8b5aa1840a637cbc9c7e225c8cb.png" data-rawwidth="1028" data-rawheight="342" class="origin_image zh-lightbox-thumb" width="1028" data-original="https://pic3.zhimg.com/v2-c6f4869f220c7f3f8ce396115d7d0e46_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/ae10e8b5aa1840a637cbc9c7e225c8cb.png"/>
PS更新
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/510e3fcc2bdb237ab81f99123804b51b.png" data-rawwidth="982" data-rawheight="360" class="origin_image zh-lightbox-thumb" width="982" data-original="https://pic4.zhimg.com/v2-ed3a08815e688077f2e5a8cf1e12161f_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/510e3fcc2bdb237ab81f99123804b51b.png"/>
SFB更新
<img src="https://static.leiphone.com/uploads/new/article/pic/201709/03d1243e17a4e5c6e019297a64721e28.png" data-rawwidth="1290" data-rawheight="322" class="origin_image zh-lightbox-thumb" width="1290" data-original="https://pic4.zhimg.com/v2-abff4dbc8195c1494554a44665ee44cb_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201709/03d1243e17a4e5c6e019297a64721e28.png"/>
目前我们已经复现[1]中的实验结果,实现了Tensorflow多机并行的线性加速。
参考文献:
[1] Hao Zhang, Zeyu Zheng, Shizhen Xu, Wei Dai, Qirong Ho, Xiaodan Liang, Zhiting Hu, Jinliang Wei, Pengtao Xie, Eric P. Xing. Poseidon: An Efficient Communication Architecture for Distributed Deep Learning on GPU Clusters . ATC 2017.
[2] C. Sun, A. Shrivastava, S. Singh, and A. Gupta. Revisiting unreasonable effectiveness of data in deep learning era . In arXiv:1707.02968, 2017.
[3] Azalia Mirhoseini, Hieu Pham, Quoc V Le, Benoit Steiner, Rasmus Larsen, Yuefeng Zhou, Naveen Kumar, Mohammad Norouzi, Samy Bengio, and Jeff Dean. 2017. Device placement optimization with reinforcement learning . In International Conference on Machine Learning (ICML).
[4] PowerAI DDL
[5] allreduce Bringing HPC Techniques to Deep Learning
[6] H. Cui, H. Zhang, G. R. Ganger, P. B. Gibbons, and E. P. Xing. GeePS: Scalable deeplearning on distributed GPUs with a GPU-specialized parameter server. In Proceedings of EuroSys, 2016.
[7] XIE, P., KIM, J. K., ZHOU, Y., HO, Q., KUMAR, A., YU, Y., AND XING, E. Distributed Machine Learning via Sufficient Factor Broadcasting . In arXiv (2015).
[8] HO, Q., CIPAR, J., CUI, H., KIM, J. K., LEE, S., GIBBONS, P. B., GIBSON, G. A., GANGER, G. R., AND XING, E. P. More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server . In NIPS (2013).
[9] Benchmarking State-of-the-Art Deep Learning Software Tools
[10] NanoNets : How to use Deep Learning when you have Limited Data