开发者社区 问答 正文

Adagrad Decay Optimizer是如何改进传统Adagrad优化器的?

Adagrad Decay Optimizer是如何改进传统Adagrad优化器的?

展开
收起
不吃核桃 2024-08-07 18:15:53 58 分享 版权
1 条回答
写回答
取消 提交回答
  • Adagrad Decay Optimizer基于周期打折的策略,解决了传统Adagrad优化器在超大规模训练时梯度趋近于0的问题。它通过在同一个周期内对样本施加相同的打折力度,既兼顾了数据的无限累积,又考虑了样本顺序对模型的影响,从而避免了模型效果变差的问题。

    2024-08-07 18:40:58
    赞同 1 展开评论