Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift

Batch Normalization是Google于2015年在ICML论文中提出的一种用于加速深度神经网络训练的一种方法。 在训练深度神经网络时,由于训练过程中每层的连接参数都在通过反向传播不断变化,从而导致每层所学习的输入样本的分布都在发生变化。这种现象被称作Internal Covariate Shift即内部协变量位移,会随着网络的深度增加而放大。内部协变量位移的存在使得在每个训练循环中
Detail

  • Page 1 of 1

RocXing

Software engineering postgraduate from BUAA


Software Engineer


Beijing, China