Tensorflow 卷积层实现

在TensorFlow中,可以通过自定义权值的底层实现方式搭建神经网络,也可以直接调用现成的卷积层类的高层方式快速搭建复杂网络。

卷积运算输出大小公式:
h’ = (h+2Ph-k)/s + 1(向下取整)
w’ = (w+2
Pw-k)/s + 1(向下取整)
卷积核的大小k、步长s、填充数p、输入的高h和宽w

1、自定义权值
在TensorFlow中,通过tf.nn.conv2d函数可以实现2D卷积运算。

#模拟输入
x = tf.random.normal([5,5,5,3])
#创建4个大小通道为3的3×3的卷积核
w = tf.random.normal([3,3,3,4])
out = tf.nn.conv2d(x,w,strides=1,padding=[[0,0],[0,0],[0,0],[0,0]])
out
'''

其中padding = [[0,0],[上,下],[左,右],[0,0]]。

x = tf.random.normal([5,5,5,3])
w = tf.random.normal([3,3,3,4])
#上下左右个添加一个单位
out = tf.nn.conv2d(x,w,strides=1,padding=[[0,0],[1,1],[1,1],[0,0]])
out
'''

设置参数padding=‘SAME’、strides=1可以直接得到输入、输出同大小的卷积层。

x = tf.random.normal([5,5,5,3])
w = tf.random.normal([3,3,3,4])
out = tf.nn.conv2d(x,w,strides=1,padding='SAME')
out
'''

当步长大于1时,设置padding='SAME’使得输出高、宽将减少为原来的1/s。

x = tf.random.normal([5,5,5,3])
w = tf.random.normal([3,3,3,4])
out = tf.nn.conv2d(x,w,strides=2,padding='SAME')
out
'''

给网络设置偏置向量

x = tf.random.normal([5,5,5,3])
w = tf.random.normal([3,3,3,4])
out = tf.nn.conv2d(x,w,strides=1,padding='SAME')
b = tf.zeros([4])
out = out+b

2、卷积层
通过卷积层类layers.Conv2D可以不需要手动定义卷积核W和偏置b,在新建卷积层类时,只需要指定卷积核数量参数filters,卷积核大小kernel_size,步长strides,填充padding等。

#创建了4个3×3大小的卷积核的卷积层,步长为1,padding为'SAME'
layer = layers.Conv2D(4,kernel_size=3,strides=1,padding='SAME')
out = layer(x)
out
'''

#4个4×3大小的卷积核,竖直方向步长=2,水平方向步长=3
layer = layers.Conv2D(4,kernel_size=(4,3),strides=(2,3),padding='SAME')
out = layer(x)
out
'''

在类Conv2D中,保存了卷积核张量W和偏置b,可以通过类成员trainable_variables直接返回W和b的列表。

layer.trainable_variables
'''
[]
'''

你可能感兴趣的:(tensorflow,深度学习)