开发者社区> 问答> 正文

什么是Adagrad Decay Optimizer?

什么是Adagrad Decay Optimizer?

展开
收起
岩茶芋泥 2022-04-19 10:49:17 672 0
来自:阿里技术
1 条回答
写回答
取消 提交回答
  • 为支持超大规模训练而提出的一种改进版Adagrad优化器。当模型训练的样本量大,同时持续增量训练较长时间时,Adagrad优化器的梯度会趋近于0,导致新增训练的数据无法对模型产生影响。已有的累积打折的方案虽然可以解决梯度趋近0的问题,但也会带来模型效果变差的问题(通过iteration打折策略无法反映实际的业务场景特点)。Adagrad Decay Optimizer基于周期打折的策略,同一个周期内的样本相同的打折力度,兼顾数据的无限累积和样本顺序对模型的影响。

    2022-04-19 16:16:15
    赞同 展开评论 打赏
问答地址:
来源圈子
更多
收录在圈子:
+ 订阅
问答排行榜
最热
最新

相关电子书

更多
Processing Terabyte Scale Genomics Datasets with ADAM 立即下载
Analysis of dropout learnning 立即下载
Analysis of dropout lcarning r 立即下载