开发者社区> 问答> 正文

Adagrad Decay Optimizer是如何改进传统Adagrad优化器的?

Adagrad Decay Optimizer是如何改进传统Adagrad优化器的?

展开
收起
不吃核桃 2024-08-07 18:15:53 31 0
1 条回答
写回答
取消 提交回答
  • Adagrad Decay Optimizer基于周期打折的策略,解决了传统Adagrad优化器在超大规模训练时梯度趋近于0的问题。它通过在同一个周期内对样本施加相同的打折力度,既兼顾了数据的无限累积,又考虑了样本顺序对模型的影响,从而避免了模型效果变差的问题。

    2024-08-07 18:40:58
    赞同 1 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
阿里技术专家一挃:MongoDB 优化器 & 执行器介绍 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载