您的位置:首页 > 其它

基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization

2015-10-25 18:21 573 查看
       
本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49405199

        本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。

一、BatchNormalization

keras.layers.normalization.BatchNormalization(epsilon=1e-6, weights=None)


        将前一层的激活输出按照数据batch进行归一化。

        inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)

        outputshape: 同input shape一样。

        参数

epsilon :small float>0,Fuzz parameter。
weights:初始化权值。含有2个numpy arrays的list,其shape是[(input_shape,),
(input_shape,)]

        本小节参考文献

Batch Normalization: AcceleratingDeep Network Training by Reducing Internal Covariate Shift

参考资料:

官方教程
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息