开发者社区> 问答> 正文

什么是batch normalization,原理是什么?

什么是batch normalization,原理是什么?

展开
收起
珍宝珠 2019-11-13 10:49:37 2760 0
1 条回答
写回答
取消 提交回答
  • Batch Normalization就是在训练过程,每一层输入加一个标准化处理。

    深度神经网络之所以复杂有一个原因就是由于在训练的过程中上一层参数的更新使得每一层的输入一直在改变。所以有个办法就是去标准化每一层的输入。具体归一化的方式如下图,如果只将归一化的结果进行下一层的输入,这样可能会影响到本层学习的特征,因为可能该层学习到的特征分布可能并不是正态分布的,这样强制变成正态分布会有一定影响,所以还需要乘上γ和β,这两个参数是在训练过程学习的,这样可以保留学习到的特征。

    2019-11-13 10:50:11
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
WordRank embedding:"crowned"is 立即下载
Analysis of dropout learnning 立即下载
Analysis of dropout lcarning r 立即下载