本意识 导言 据统计数据显示,截至8月30日,全球市值最高的50....
sgd 深度学习——优化器算法Optimizer详解
由于这种方法是在一次更新中,就对整个数据集计算梯度,所以计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新数据实时更新模型。 for i in range(nb_epochs):params_grad = evaluate_gradient(loss_function, data, params) params = params - learning_rate * params_grad 我们会事先定义一个迭代次数 epoch,首先计算梯度向量 params_grad,然后沿着梯度的方向更新参数 params,learning rate 决定了我们每一步迈多大。 Batch gradient descent 对于凸函数可以收敛到全局极小值,对于非凸函数可以收敛到局部极小值。 2.Stochastic Gradient Descent (SGD)梯度更新规则: 和 BGD 的一次用所有数据计算梯度相比,SGD 每次更新时对每个样本进行梯度更新,对于很大的数据集来说,可能会有相似的样本,这样 BGD 在计算梯度时会出现冗余,而 SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。 ![]() np.random.shuffle(data) for example in data: params_grad = evaluate_gradient(loss_function, example, params) params = params - learning_rate * params_grad 看代码,可以看到区别,就是整体数据集是个循环,其中对每个样本进行一次参数更新。 ![]() 随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况,那么可能只用其中部分的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。缺点是SGD的噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。所以虽然训练速度快,但是准确度下降,并不是全局最优。虽然包含一定的随机性,但是从期望上来看,它是等于正确的导数的。 缺点: SGD 因为更新比较频繁,会造成 cost function 有严重的震荡。 BGD 可以收敛到局部极小值,当然 SGD 的震荡可能会跳到更好的局部极小值处。 当我们稍微减小 learning rate,SGD 和 BGD 的收敛性是一样的。 3.Mini-Batch Gradient Descent (MBGD)梯度更新规则: MBGD 每一次利用一小批样本,即 n 个样本进行计算,这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。 和 SGD 的区别是每一次循环不是作用于每个样本,而是具有 n 个样本的批次。 for i in range(nb_epochs):np.random.shuffle(data) for batch in get_batches(data, batch_size=50): params_grad = evaluate_gradient(loss_function, batch, params) params = params - learning_rate * params_grad 超参数设定值: n 一般取值在 50~256 缺点:(两大缺点) 不过 Mini-batch gradient descent 不能保证很好的收敛性,learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。)对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。(会在鞍点或者局部最小点震荡跳动,因为在此点处,如果是训练集全集带入即BGD,则优化会停止不动,如果是mini-batch或者SGD,每次找到的梯度都是不同的,就会发生震荡,来回跳动。) SGD对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。LR会随着更新的次数逐渐变小。 鞍点就是:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。例如这个二维图形,像个马鞍:在x-轴方向往上曲,在y-轴方向往下曲,鞍点就是(0,0)。 ![]() 为了应对上面的两点挑战就有了下面这些算法。 前期知识:指数加权平均,请参看博文《什么是指数加权平均、偏差修正?》 4.MomentumSGD 在 ravines 的情况下容易被困住, ravines 就是曲面的一个方向比另一个方向更陡,这时 SGD 会发生震荡而迟迟不能接近极小值: ![]() 梯度更新规则: Momentum 通过加入 γv_t1 ,可以加速 SGD, 并且抑制震荡 ![]() 当我们将一个小球从山上滚下来时,没有阻力的话,它的动量会越来越大,但是如果遇到了阻力,速度就会变小。 超参数设定值: 一般 γ 取值 0.9 左右。 缺点: 这种情况相当于小球从山上滚下来时是在盲目地沿着坡滚,如果它能具备一些先知,例如快要上坡时,就知道需要减速了的话,适应性会更好。 5.Nesterov Accelerated Gradient梯度更新规则: 用 θγv_t1 来近似当做参数下一步会变成的值,则在计算梯度时,不是在当前位置,而是未来的位置上 超参数设定值: 一般 γ 仍取值 0.9 左右。 效果比较: 蓝色是 Momentum 的过程,会先计算当前的梯度,然后在更新后的累积梯度后会有一个大的跳跃。 NAG 可以使 RNN 在很多任务上有更好的表现。 目前为止,我们可以做到,在更新梯度时顺应 loss function 的梯度来调整速度,并且对 SGD 进行加速。 我们还希望可以根据参数的重要性而对不同的参数进行不同程度的更新。 6.Adagrad (Adaptive gradient algorithm)这个算法就可以对低频的参数做较大的更新,对高频的做较小的更新,也因此,对于稀疏的数据它的表现很好,很好地提高了 SGD 的鲁棒性,例如识别 Youtube 视频里面的猫,训练 GloVe word embeddings,因为它们都是需要在低频的特征上有更大的更新。 梯度更新规则:
![]() 其中 g 为:t 时刻参数 θ_i 的梯度 ![]() 如果是普通的 SGD, 那么 θ_i 在每一时刻的梯度更新公式为: ![]() 但这里的 learning rate η 也随 t 和 i 而变: ![]() 其中 G_t 是个对角矩阵, (i,i) 元素就是 t 时刻参数 θ_i 的梯度平方和。 Adagrad 的优点是减少了学习率的手动调节 超参数设定值:一般η选取0.01 缺点: 它的缺点是分母会不断积累,这样学习率就会收缩并最终会变得非常小。 7.Adadelta这个算法是对 Adagrad 的改进, 和 Adagrad 相比,就是分母的 G 换成了过去的梯度平方的衰减平均值,指数衰减平均值 ![]() 这个分母相当于梯度的均方根 root mean squared (RMS),在数据统计分析中,将所有值平方求和,求其均值,再开平方,就得到均方根值 ,所以可以用 RMS 简写: ![]() 其中 E 的计算公式如下,t 时刻的依赖于前一时刻的平均和当前的梯度: ![]() 梯度更新规则: 此外,还将学习率 η 换成了 RMS[Δθ],这样的话,我们甚至都不需要提前设定学习率了: ![]() 超参数设定值: γ 一般设定为 0.9 7.RMSpropRMSprop 是 Geoff Hinton 提出的一种自适应学习率方法。 RMSprop 和 Adadelta 都是为了解决 Adagrad 学习率急剧下降问题的, 梯度更新规则: RMSprop 与 Adadelta 的第一种形式相同:(使用的是指数加权平均,旨在消除梯度下降中的摆动,与Momentum的效果一样,某一维度的导数比较大,则指数加权平均就大,某一维度的导数比较小,则其指数加权平均就小,这样就保证了各维度导数都在一个量级,进而减少了摆动。允许使用一个更大的学习率η)
![]() 超参数设定值: Hinton 建议设定 γ 为 0.9, 学习率 η 为 0.001。 8.Adam:Adaptive Moment Estimation这个算法是另一种计算每个参数的自适应学习率的方法。相当于 RMSprop + Momentum 除了像 Adadelta 和 RMSprop 一样存储了过去梯度的平方 vt 的指数衰减平均值 ,也像 momentum 一样保持了过去梯度 mt 的指数衰减平均值: ![]() 如果 mt 和 vt 被初始化为 0 向量,那它们就会向 0 偏置,所以做了偏差校正,通过计算偏差校正后的 mt 和 vt 来抵消这些偏差: ![]() 梯度更新规则: 超参数设定值: 实践表明,Adam 比其他适应性学习方法效果要好。 下面看一下几种算法在鞍点和等高线上的表现: ![]() SGD optimization on saddle point ![]() SGD optimization on loss surface contours 上面两种情况都可以看出,Adagrad, Adadelta, RMSprop 几乎很快就找到了正确的方向并前进,收敛速度也相当快,而其它方法要么很慢,要么走了很多弯路才找到。 由图可知自适应学习率方法即 Adagrad, Adadelta, RMSprop, Adam 在这种情景下会更合适而且收敛性更好。 三.如何选择优化算法 |

-
sgd 深度学习——优化器算法Optimizer详解 2019-02-17
由于这种方法是在一次更新中,就对整个数据集计算梯度,所以计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新...
-
周五晚上的综艺节目 湖南卫视2017周末档综艺节目播 2019-02-17
2017年一季度已经过去了,进入二季度后,又将有各种新综艺与大家见面啦~下面带来湖南卫视2017周末档综艺节目播出时间汇总,一...
-
-
银行投资收益 银行理财收益率持续遇冷跌至18个月新 2019-02-17
数据同时显示,本周银行理财产品发行量为2049款,较上周增加了179款,但整体来看近期发行量都不算高;平均期限为168天,较上周...