Tensorflow2.0之 tf.keras.layers.Conv1D 做自然语言处理

tf.keras.layers.Conv1D(
    filters, kernel_size, strides=1, padding='valid', data_format='channels_last',
    dilation_rate=1, activation=None, use_bias=True,
    kernel_initializer='glorot_uniform', bias_initializer='zeros',
    kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None,
    kernel_constraint=None, bias_constraint=None, **kwargs
)

这是Tensorflow的API文档给的参数例子,参数的含义上面也有写,但参数太多,并且我感觉说的不是很明白,所以我自己写了一个例子,给大家讲解一下它的主要参数的含义以及输入格式(如有错误望请指正)。

input_shape = (15, 7, 4)
x = tf.random.normal(input_shape)
y = tf.keras.layers.Conv1D(64, 4,strides=2, activation='relu', padding="same",input_shape=input_shape)(x)
print('y的数据形式:',y.shape)

在这里插入图片描述
首先我们要知道,Conv1D是一维卷积,主要用来处理自然语言处理方面的信息输入。
input_shape:其输入的维度是三维的tensor,(batch,seq_len,dim)的格式。batch:你要输入的文本数量。seq_len:一个文档中文字的数量(每个文档的度是一样的,而我们的文档的长度大部分是不一样的,所以我们要先对文档做预处理,进行填充使得它们的长度一致)。dim:把我们的第二个维度中的词做成向量的维度。(这个一般会用到Word2Vec).例如:(4,22,6) 有四个文档,每个文档有22个单词,每个单词映射到六维表示。

filters:过滤器(卷积核)的数目

kernel_size:卷积核的大小,卷积核本身应该是二维的,这里只需要指定一维,因为第二个维度即长度与词向量的长度一致,卷积核只能从上往下走,不能从左往右走,即只能按照文本中词的顺序,也是列的顺序。

strides : 每次卷积的步长,如果不指定的话,默认是1.

padding:防止处于最外面的数据不能被充分学习到。

上面的例子上输入是 : 过滤器是64个,卷积核大小是4,步长是2, 输入是一个三维数据。
最有我们输出卷积后的数据格式是:(15, 4, 64)

那这个形式是怎么得到的呢?
15: 15 是我们输入的文档数量,这个不论怎么卷积也不会改变的。
4: 4是我们进行一次卷积操作后得到的。因为卷积核是4,所以每次卷积选四列,每次移动两列,padding方式是’same’ 所以卷积后剩下的列数是:(seq_len - kernel_size)+2padding/strides+1 = 4(向下取整) padding = 1
64: 64是我们过滤器的数量,有多少个过滤器你的第三个维度就是多少。

你可能感兴趣的:(tensorflow,深度学习,卷积)