跳到主要内容

认识

2025年02月07日
柏拉文
越努力,越幸运

一、认识


RMSprop(Root Mean Square Propagation) 优化算法的参数更新公式 解决 AdaGrad 学习率衰减太快的问题, 适用于非平稳损失

二、公式


Gt=βGt1+(1β)(L)2G_t = \beta G_{t-1} + (1 - \beta) (\nabla L)^2 W:=WαGt+ϵLW := W - \frac{\alpha}{\sqrt{G_t} + \epsilon} \nabla L