基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization
2015-10-25 18:21
573 查看
本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49405199
本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。
一、BatchNormalization
keras.layers.normalization.BatchNormalization(epsilon=1e-6, weights=None)
将前一层的激活输出按照数据batch进行归一化。
inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)
outputshape: 同input shape一样。
参数:
epsilon :small float>0,Fuzz parameter。
weights:初始化权值。含有2个numpy arrays的list,其shape是[(input_shape,),
(input_shape,)]
本小节参考文献:
Batch Normalization: AcceleratingDeep Network Training by Reducing Internal Covariate Shift
参考资料:
官方教程相关文章推荐
- 图像识别和图像搜索
- 卷积神经网络
- 深度学习札记
- 图像智能打标签‘神器’-AlchemyVision API
- ubuntu theano 安装成功,windows theano安装失败
- 卷积神经网络知识要点
- 1.linear Regression
- 1.linear Regression
- SURF项目总结 - deepdream
- Theano 模块 基础知识篇
- Deep learning: autoencoders and sparsity
- 开设博客初衷
- deep learning 个人理解及其实现工具
- unbutu12.04 64bit系统 安装theano+cuda5.5,并运行deeplearningtutorial里面的代码
- 从CVPR2013看计算机视觉研究的三个趋势
- DL相关文献整理
- ImageNet Classification with Deep Convolutional Neural Networks 阅读理解及问题
- 一边学,一边写出的人工智能教程(二)
- 一边学,一边写出的人工智能教程(一)