Tensorflow学习(2)
2017-11-18 17:17
183 查看
1.0版本中的卷积函数:tf.layers.conv2d
定义在tensorflow/python/layers/convolutional.py.
参数多了很多,但实际用起来,却更简单。
inputs: 输入数据,4维tensor.
filters: 卷积核个数。
kernel_size:卷积核大小,如【5,5】。如果长宽相等,也可以直接设置为一个数,如kernel_size=5
strides: 卷积过程中的滑动步长,默认为[1,1]. 也可以直接设置为一个数,如strides=2
padding: 边缘填充,’same’ 和’valid‘选其一。默认为valid
data_format: 输入数据格式,默认为channels_last ,即 (batch, height, width, channels),也可以设置为channels_first 对应 (batch, channels, height, width).
dilation_rate: 微步长卷积,这个比较复杂一些,请百度.
activation: 激活函数.
use_bias: Boolean型,是否使用偏置项.
kernel_initializer: 卷积核的初始化器.
bias_initializer: 偏置项的初始化器,默认初始化为0.
kernel_regularizer: 卷积核化的正则化,可选.
bias_regularizer: 偏置项的正则化,可选.
activity_regularizer: 输出的正则化函数.
trainable: Boolean型,表明该层的参数是否参与训练。如果为真则变量加入到图集合中 GraphKeys.TRAINABLE_VARIABLES (see tf.Variable).
name: 层的名字.
reuse: Boolean型, 是否重复使用参数.
示例:
更复杂一些的
conv2d( inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channels_last', dilation_rate=(1, 1), activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zeros_initializer(), kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True, name=None, reuse=None )
定义在tensorflow/python/layers/convolutional.py.
参数多了很多,但实际用起来,却更简单。
inputs: 输入数据,4维tensor.
filters: 卷积核个数。
kernel_size:卷积核大小,如【5,5】。如果长宽相等,也可以直接设置为一个数,如kernel_size=5
strides: 卷积过程中的滑动步长,默认为[1,1]. 也可以直接设置为一个数,如strides=2
padding: 边缘填充,’same’ 和’valid‘选其一。默认为valid
data_format: 输入数据格式,默认为channels_last ,即 (batch, height, width, channels),也可以设置为channels_first 对应 (batch, channels, height, width).
dilation_rate: 微步长卷积,这个比较复杂一些,请百度.
activation: 激活函数.
use_bias: Boolean型,是否使用偏置项.
kernel_initializer: 卷积核的初始化器.
bias_initializer: 偏置项的初始化器,默认初始化为0.
kernel_regularizer: 卷积核化的正则化,可选.
bias_regularizer: 偏置项的正则化,可选.
activity_regularizer: 输出的正则化函数.
trainable: Boolean型,表明该层的参数是否参与训练。如果为真则变量加入到图集合中 GraphKeys.TRAINABLE_VARIABLES (see tf.Variable).
name: 层的名字.
reuse: Boolean型, 是否重复使用参数.
示例:
conv1=tf.layers.conv2d( inputs=x, filters=32, kernel_size=5, padding="same", activation=tf.nn.relu, kernel_initializer=tf.TruncatedNormal(stddev=0.01))
更复杂一些的
conv1 = tf.layers.conv2d(batch_images, filters=64, kernel_size=7, strides=2, activation=tf.nn.relu, kernel_initializer=tf.TruncatedNormal(stddev=0.01) bias_initializer=tf.Constant(0.1), kernel_regularizer=tf.contrib.layers.l2_regularizer(0.003), bias_regularizer=tf.contrib.layers.l2_regularizer(0.003), name='conv1')
相关文章推荐
- TensorFlow深度学习,一篇文章就够了
- 机器学习&深度学习基础(tensorflow版本实现的算法概述0)
- TensorFlow学习笔记【一】Helloworld,简单计算,线性回归
- TensorFlow 初体验--基本操作的学习
- TensorFlow深度学习入门——Win10下安装Tensorflow和GPU加速
- Tensorflow实战学习(三十三)【实现ResNet】
- 专访 TensorFlow 贡献者唐源:掌握 Google 深度学习框架的正确姿势
- TensorFlow学习笔记(二):实现神经网络
- 深度纸质学习与实验(三)-将TensorFlow加入kubernetes初试
- TensorFlow学习笔记--什么是TensorFlow
- TensorFlow 学习(一)“name 'input_data' is not defined”
- Tensorflow学习笔记:模型训练数据的保存和恢复的简单实例
- TensorFlow学习笔记2——数据类型及简单运算
- tensorflow(二)学习记录
- Tensorflow学习之旅(九)——自编码AutoEncoder
- TensorFlow官方教程学习 TensorFlow Mechanics 101
- Tensorflow学习之tfrecords_reader
- TensorFlow与主流深度学习框架对比
- tensorflow学习
- TensorFlow入门深度学习--02.构建神经网络训练算法的步骤