Skip to content

Latest commit

 

History

History
13 lines (7 loc) · 343 Bytes

README.md

File metadata and controls

13 lines (7 loc) · 343 Bytes

优化器Optimizer

随机梯度下降SGD(Stochastic Gradient Descent)

权重Momentum

AdaGrad

RMSProp

Adam

SGD 是最普通的优化器, 也可以说没有加速效果, 而 Momentum 是 SGD 的改良版, 它加入了动量原则. 后面的 RMSprop 又是 Momentum 的升级版. 而 Adam 又是 RMSprop 的升级版.