资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

抛弃Learning Rate Decay吧!

作者:不灵叔
2018/01/24 09:47

雷锋网AI科技评论按:本文为浙江大学吴骞为雷锋网 AI 科技评论撰写的独家稿件,未经雷锋网许可不得转载。  

论文题目: DON’T DECAY THE LEARNING RATE, INCREASE THE BATCH SIZE 

论文地址:https://arxiv.org/abs/1711.00489 

真的是生命不息,打脸不止。前几天刚刚总结了常见的 learning rate decay 方法,最近又看到这篇正在投 ICLR2018 的盲审,求我现在的心理阴影的面积。。。 

抛弃Learning Rate Decay吧!

然后上 arxiv 一查,哦,Google 爸爸的,干货满满,简直不容反驳。。。 

抛弃Learning Rate Decay吧!

先点题: 

 不用衰减学习率啦,只要增大 Batch Size 就可以啦!

摘要:  

随即梯度下降法与曲线优化

传统的学习率遵循以下两个约束: 

 抛弃Learning Rate Decay吧!(1)

抛弃Learning Rate Decay吧! (2)

直观来看,公式1约束最小值优化的参数一定存在,公式2保证了衰减学习率有助于快速收敛至最小值处,而不是由于噪声在震荡。  

然而以上结论是给予 Batch Size 不变推导出的。作者基于前作(A BAYESIAN PERSPECTIVE ON GENERALIZATION AND STOCHASTIC GRADIENT DESCENT)推导出另一个解释优化过程的模型,并指出可以通过找到某个最优化的随机波动值抛弃Learning Rate Decay吧!  (其中抛弃Learning Rate Decay吧!为学习率 , 抛弃Learning Rate Decay吧!为训练数据集大小,  抛弃Learning Rate Decay吧!为 Batch Size 大小),使得模型达到最优值。

模拟退火法和泛化能力下降

广泛的研究结果指出小 Batch Size 训练的模型在 test 中的泛化能力比大 Batch Size 的要好。前作中还得出了固定学习率下的最大 Batch Size 优化值 抛弃Learning Rate Decay吧!,并验证了抛弃Learning Rate Decay吧!与随机噪声值抛弃Learning Rate Decay吧!有关。

研究者认为小 Batch 中的随机误差有助于 SGD 的收敛,尤其是在非凸曲线优化问题上。噪声可以帮助 SGD 收敛至所谓平滑最小值(flat minima)而不是尖锐最小值(sharp minima)以保证 test 的泛化特性。

作者发现大部分研究者在训练过程中都使用了「early stop 」的方法(当验证集的点数不再增高时停止训练),因此作者实际上有意的阻止了网络到达最小值。衰减学习率的成功是经验式的。具体过程可以类比于模拟退火法中,较大的初始噪音有助于探索更大范围内的参数空间而不是很快地陷入局部最优值;一旦作者找到了可能的最优区域后开始减少噪声来 finetune 到最优值。

而这也能解释为什么近来越来越多的研究者开始使用 cosine 式衰减学习率或阶梯形的衰减——物理退火法中,缓慢衰减温度是系统收敛到某些锐利的全局最小值;而离散地降低温度则有利于收敛到不是最低但足够鲁棒的区域。

有效的学习率和累积变量

许多研究者开始使用带 momentum 的 SGD 下降法,其噪声值与原始 SGD 稍有不同:

 抛弃Learning Rate Decay吧!(3)  

抛弃Learning Rate Decay吧!时该噪声将退化为原始 SGD 噪声。对比两种 SGD 可以得出带 momentum 的 SGD 方抛弃Learning Rate Decay吧!法的有效学习率应为  。

对比原始 SGD,作者可以推导:成比例的放大抛弃Learning Rate Decay吧!可以保持模型性能。然而,作者发现若成比例的缩放学习率抛弃Learning Rate Decay吧!和 Batch Size 表现良好,但是若按照抛弃Learning Rate Decay吧!倍缩放 Batch Size 和冲量系数抛弃Learning Rate Decay吧!的话则会导致 test 性能下降。这是因为冲量式的更新在时间上是累积的,因此当抛弃Learning Rate Decay吧!设置较大时需要额外的训练次数才能保证模型处于相同水平,原文的补充材料中有较详细的分析,此处不作解释。  

随着冲量系数抛弃Learning Rate Decay吧!的增大,还会增加网络忘记旧的梯度的时间(该时间和抛弃Learning Rate Decay吧!成正比),一旦时间跨度达到几个 epoch 以上时,损失空间将会变得不利调整从而阻碍训练。这种情况在学习率衰减的时候尤其明显。这也是为什么有些论文推荐在初始的若干 epoch 时提升学习率。然而,在作者的大 Batch Size 实验中,这种做法却会带来系统不稳定性。  

实验对比

实验中使用的网络是「16-4」宽型残差网络结构(wide ResNet architecture),使用了 ghost batch norm 方法来保证平均梯度与 Batch Size 不相关。

实验中使用的对比策略是阶梯形的,学习率阶梯形下降,对应的,Batch Size 阶梯形上升。

抛弃Learning Rate Decay吧!

图中,蓝线代表常见的保持 Batch Size,逐步衰减学习率的方法;红线代表与之相反的,保持学习率,相应的上升 Batch Size 的策略;绿线模拟真实条件下,上升 Batch Size 达到显存上限的时候,再开始下降学习率的策略。

该实验可以验证两个问题:

学习率下降是否是必须的——若是则三条曲线应不同;

是否是因为随机噪声的变化导致结果不同——若是则三条曲线相同;

实验结果如下(a)所示,并验证了随机噪声与训练曲线的相关性。

抛弃Learning Rate Decay吧!

实验结果(b)进一步显示增大 Batch Size 的好处,观察损失值与参数更新次数的关系,显然,增大 Batch Size 的方法中参数更新的次数远少于衰减学习率的策略。

下图是两种不同的梯度下降策略的 test 结果,显然效果相差不大。

抛弃Learning Rate Decay吧!

增大学习率策略

作者准备了四组实验:  

  • Original training schedule:初始学习率设为 0.1,momentum 为 0.9,Batch Size 为 128,采用衰减学习率策略,每阶段减少 5 倍;  

  • Increasing batch size:初始学习率设为 0.1,momentum 为 0.9,Batch Size 为 128,采用增大 Batch Size 策略,每阶段增加 5 倍; 

  • Increased initial learning rate:初始学习率设为 0.5,momentum 为 0.9,Batch Size 为 640,采用增大 Batch Size 策略,每阶段增加 5 倍;  

  • Increased momentum coefficient:初始学习率设为 0.5,momentum 为 0.98,Batch Size 为 3200,采用增大 Batch Size 策略,每阶段增加 5 倍; 

当 Batch Size 增加到最大值抛弃Learning Rate Decay吧!后即不再增加,以保证抛弃Learning Rate Decay吧!,并相应的开始减少学习率。 

结果如下所示,结论与上文相同,方法4的结果稍差也在章节有效的学习率和累积变量中有所解释。 

训练 IMAGENET 只用更新 2500 次参数

论文 Accurate, large minibatch SGD: Training imagenet in 1 hour 中的参数与试验参数设置和结果对比如下: 

抛弃Learning Rate Decay吧!

 上述论文中的 Batch Size 已经达到了保持网络稳定的最大值,为了进一步扩大 Batch Size 可以适当增大 momentum 的值。最终,作者的网络达到了显存的上限抛弃Learning Rate Decay吧!并保证了抛弃Learning Rate Decay吧! 。其参数设置与结果如下所示,可以看到准确率下降不大但是有效减少了参数的更新次数。 

抛弃Learning Rate Decay吧!

 增大 Batch Size 就可以不用衰减学习率了,emmm,听起来很有道理,但是总感觉哪里不对...

抛弃Learning Rate Decay吧!

 最后,祝大家炼丹愉快!      

长按图片保存图片,分享给好友或朋友圈

抛弃Learning Rate Decay吧!

扫码查看文章

正在生成分享图...

取消
相关文章