开发者社区 问答 正文

什么是Adagrad Decay Optimizer?

什么是Adagrad Decay Optimizer?

展开
收起
岩茶芋泥 2022-04-19 10:49:17 743 分享 版权
来自: 阿里技术
1 条回答
写回答
取消 提交回答
  • 为支持超大规模训练而提出的一种改进版Adagrad优化器。当模型训练的样本量大,同时持续增量训练较长时间时,Adagrad优化器的梯度会趋近于0,导致新增训练的数据无法对模型产生影响。已有的累积打折的方案虽然可以解决梯度趋近0的问题,但也会带来模型效果变差的问题(通过iteration打折策略无法反映实际的业务场景特点)。Adagrad Decay Optimizer基于周期打折的策略,同一个周期内的样本相同的打折力度,兼顾数据的无限累积和样本顺序对模型的影响。

    2022-04-19 16:16:15
    赞同 展开评论
问答地址: