Tensorflow2.0之卷积层实现

文章目录

  • Tensorflow2.0之卷积层实现
    • 自定义权值
    • Keras高层接口卷积层类

Tensorflow2.0之卷积层实现

自定义权值

在 TensorFlow 中,通过tf.nn.conv2d 函数可以方便地实现2D 卷积运算。tf.nn.conv2d基于输入: ℎ 和卷积核: 进行卷积运算,得到输出 ℎ′ ′ ,其中表示输入通道数,表示卷积核的数量,也是输出特征图的通道数。例如:

In [1]:
x = tf.random.normal([2,5,5,3]) # 模拟输入,3 通道,高宽为5
# 需要根据[k,k,cin,cout]格式创建W 张量,4 个3x3 大小卷积核
w = tf.random.normal([3,3,3,4])
# 步长为1, padding 为0,
out = tf.nn.conv2d(x,w,strides=1,padding=[[0,0],[0,0],[0,0],[0,0]])
Out[1]: # 输出张量的shape
TensorShape([2, 3, 3, 4])

其中padding 参数的设置格式为:
padding=[[0,0],[上,下],[左,右],[0,0]]
例如,上下左右各填充一个单位,则padding 参数设置为 ,实现如下:

In [2]:
x = tf.random.normal([2,5,5,3]) # 模拟输入,3 通道,高宽为5
# 需要根据[k,k,cin,cout]格式创建,4 个3x3 大小卷积核
w = tf.random.normal([3,3,3,4])
# 步长为1, padding 为1,
out = tf.nn.conv2d(x,w,strides=1,padding=[[0,0],[1,1],[1,1],[0,0]])
Out[2]: # 输出张量的shape
TensorShape([2, 5, 5, 4])

特别地,通过设置参数padding=‘SAME’、strides=1 可以直接得到输入、输出同大小的卷积层,其中padding 的具体数量由TensorFlow 自动计算并完成填充操作。例如:

In [3]:
x = tf.random.normal([2,5,5,3]) # 模拟输入,3 通道,高宽为5
w = tf.random.normal([3,3,3,4]) # 4 个3x3 大小的卷积核
# 步长为,padding 设置为输出、输入同大小
# 需要注意的是, padding=same 只有在strides=1 时才是同大小
out = tf.nn.conv2d(x,w,strides=1,padding='SAME')
Out[3]: TensorShape([2, 5, 5, 4])

当trides >1 时,设置padding='SAME’将使得输出高、宽将成 1 s \frac{1}{s} s1倍地减少(s为步长)。例如:

In [4]:
x = tf.random.normal([2,5,5,3])
w = tf.random.normal([3,3,3,4])
# 高宽先padding 成可以整除3 的最小整数6,然后6 按3 倍减少,得到2x2
out = tf.nn.conv2d(x,w,strides=3,padding='SAME')
Out [4]:TensorShape([2, 2, 2, 4])

卷积神经网络层与全连接层一样,可以设置网络带偏置向量。tf.nn.conv2d 函数是没有实现偏置向量计算的,添加偏置只需要手动累加偏置张量即可。例如

# 根据[cout]格式创建偏置向量
b = tf.zeros([4])
# 在卷积输出上叠加偏置向量,它会自动broadcasting 为[b,h',w',cout]
out = out + b

不知道broadcasting机制的可以去看我的另一篇博客。
https://blog.csdn.net/python_LC_nohtyp/article/details/104097417
通过设置strides和padding可以控制卷积层的输出大小,卷积层并不像全连接层一样可以直接指定输出层的大小。

Keras高层接口卷积层类

通过卷积层类layers.Conv2D 可以不需要手动定义卷积核和偏置张量,直接调用类实例即可完成卷积层的前向计算,实现更加高层和快捷。

在新建卷积层类时,只需要指定卷积核数量参数filters,卷积核大小kernel_size,步长strides,填充padding 等即可。如下创建了4 个3 × 3大小的卷积核的卷积层,步长为1,padding 方案为’SAME’:
layer = layers.Conv2D(4,kernel_size=3,strides=1,padding=‘SAME’)
如果卷积核高宽不等,步长行列方向不等,此时需要将kernel_size 参数设计为tuple格式(ℎ ),strides 参数设计为(ℎ )。如下创建4 个3 × 大小的卷积核,竖直方向移动步长ℎ = 2,水平方向移动步长 = :

layer = layers.Conv2D(4,kernel_size=(3,4),strides=(2,1),padding=‘SAME’)

创建完成后,通过调用实例(的__call__方法)即可完成前向计算,例如:

In [5]:
# 创建卷积层类
layer = layers.Conv2D(4,kernel_size=3,strides=1,padding='SAME')
out = layer(x) # 前向计算
out.shape # 输出张量的shape
Out[5]:TensorShape([2, 5, 5, 4])

在类Conv2D综合,保存了卷积核张量W和偏置b,可以通过类成员trainable_variables直接返回W和b的列表,例如:

In [6]:
# 返回所有待优化张量列表
layer.trainable_variables
Out[6]:
[<tf.Variable 'conv2d/kernel:0' shape=(3, 3, 3, 4) dtype=float32, numpy=
array([[[[ 0.13485974, -0.22861657, 0.01000655, 0.11988598],
[ 0.12811887, 0.20501086, -0.29820845, -0.19579397],
[ 0.00858489, -0.24469738, -0.08591779, -0.27885547]],<tf.Variable 'conv2d/bias:0' shape=(4,) dtype=float32, numpy=array([0., 0.,
0., 0.], dtype=float32)>]

通过调用layer.trainable_variables可以返回Conv2D类维护的W和b张量,这个类成员在获取网络层的待优化变量时非常有用。也可以直接调用类实力layer.kernel、layer.bias名访问W和b张量

你可能感兴趣的:(小白的ai学习之路,TF2,卷积,神经网络,网络,python,tensorflow)