常用层对应于core模块,core内部定义了来一系列常用网络层,包括全连接,激活层等。
Dense层
keras.layers.core.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None)
Dense就是常用全连接层,所实现的运算是output =
activation(dot(input,kernel)+bias)。其中activation为逐元素计算的激活函数,kernel是本层权值矩阵,bias为偏置向量,只有当use_bias =True才会添加。
如果本层的输入数据维度大于2,则会先辈压为与kernel相匹配的的大小。
# as first layer in a sequential model:
# as first layer in a sequential model:
model = Sequential()
model.add(Dense(32, input_shape=(16,)))
# now the model will take as input arrays of shape (*, 16)
# and output arrays of shape (*, 32)
# after the first layer, you don't need to specify
# the size of the input anymore:
model.add(Dense(32))
参数;
bias_constraints:施加在偏置上的约束项,为Constraints对象
输入:
形如(nb_samples,input_shape[1])的nD张量,最常见的情况为(nb_samples,input_dim)的2D张量
输出
形如(nb_samples,...,units)的nD张量,最常见情况为(nb_samples,...,units)的nD张量,最常见情况为(nb_samples,output_dim)的2D张量
Activation层
keras.layers.core.Activation(activation)
激活层对一个层的输出施加激活函数
参数:
输入shape
任意,当使用激活函数层作为第一层时指定input_shape
输出shape
与输入shape相同
Dropout层
keras.layers.core.Dropout(rate,noise_shape=None,seed=None)
为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(rate)的输入神经元,Dropout层用于防止过拟合。
参数:
rate:0~1的浮点数,控制需要断开的神经元比例
noise_shape:整数张量,为将要应用在输入上的二值Dropoutmask的shape,例如你的输入为(batch_size,timesteps,features),并且你希望在各个时间步上的Dropout mask都相同,则可传入noise_shape =(batch_size,1,features)
seed:整数,随机数种子
Flatten层
keras.layers.core.Flatten()
Flatten层用来将输入”压平”,即把多维的输入一维化,常用在从卷积过度到全连接层的过度,Flatten不影响batch大小。
model =Sequential()
model.add(Donvolution2D(64,3,3,border_mode='same',input_shape(3,32,32)))
# now: model.output_shape == (None, 64, 32, 32)
model.add(Flatten())
# now: model.output_shape == (None, 65536)
Reshape层
keras.layers.core.Reshape(target_shape)
Reshape层用来将输入转換为指定shape
参数
target_shape:目标shape,为整数的tuple,不包含样本数目的维度(batch大小)
输入shape
任意,但输入的shape必须固定。当使用该层为模型首层时,要指定input_shape参数
输出shape
(batch_size,)+target_shape
例子
# as first layer in a Sequential model
model = Sequential()
model.add(Reshape((3, 4), input_shape=(12,)))
# now: model.output_shape == (None, 3, 4)
# note: `None` is the batch dimension
# as intermediate layer in a Sequential model
model.add(Reshape((6, 2)))
# now: model.output_shape == (None, 6, 2)
# also supports shape inference using `-1` as dimension
model.add(Reshape((-1, 2, 2)))
# now: model.output_shape == (None, 3, 2, 2)
Permute层
keras.layers.core.Permute(dims)
Permute层将输入维度按照给定模式重拍,可能在CNN或RNN网络连接时用到
参数:
dim:整数tuple,指定重排模式,不包含样本数的维度。重排模式的下标从1 开始,例如(2,1)代表将输入的第二维重排到第一维度,而将输入的第一维重排到第二维度
例子:
model = Sequential()
model.add(Permute((2, 1), input_shape=(10, 64)))
# now: model.output_shape == (None, 64, 10)
# note: `None` is the batch dimension
输入shape
任意,当使用激活层作为第一层,要指定input_shape
输出shape
与输入相同,但是其维度按照指定模式重新排列
RepeatVector层
keras.layers.core.Repeate(n)
RepeateVector层将输入重复n次
参数;
n:整数,重复的次数
输入shape
形如(nb_samples,feature)的2D张量
输出shape
形如(nb_samples,n,feature)的3D张量
例子:
model = Sequential()
model.add(Dense(32, input_dim=32))
# now: model.output_shape == (None, 32)
# note: `None` is the batch dimension
model.add(RepeatVector(3))
# now: model.output_shape == (None, 3, 32)
Lambda层
keras.layers.core.Lambda(function,output_shape=None,mask=None,arguments = None)
本函数用于对上层输出施以任何Theano/TensorFlow表达式
参数
function:要实现的函数,该函数仅接受一个变量,即上一层的输出
output_shape:函数应该返回的值的shape,可以是一个tuple,也可以是一个根据输入shape计算输出shape的函数
mask: 掩膜
arguments:可选,字典,用来记录向函数中传递的其他关键字参数
例子
# add a x -> x^2 layer
model.add(Lambda(lambda x: x ** 2))
# add a layer that returns the concatenation
# of the positive part of the input and
# the opposite of the negative part
def antirectifier(x):
x -= K.mean(x, axis=1, keepdims=True)
x = K.l2_normalize(x, axis=1)
pos = K.relu(x)
neg = K.relu(-x)
return K.concatenate([pos, neg], axis=1)
def antirectifier_output_shape(input_shape):
shape = list(input_shape)
assert len(shape) == 2 # only valid for 2D tensors
shape[-1] *= 2
return tuple(shape)
model.add(Lambda(antirectifier,
output_shape=antirectifier_output_shape))
输入
任意,当使用该层作为第一层,要制定input_shape
输出shape
由output_shape参数指定的输出shape,当使用TF时可自行推断
ActivityRegularizer层
keras.layers.core.ActivityRegularization(l1=0.0, l2=0.0)
经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值
参数
l1:1范数正则因子
l2:2范数正则因子
输入shape
任意,当使用该层作为第一层时,要指定input_shape
输出shape
与输入相同
Masking层
keras.layers.core.Masking(mask_value=0.0)
使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步
对于输入张量的时间步,即输入张量的第1维度(维度从0开始算,见例子),如果输入张量在该时间步上都等于mask_value,则该时间步将在模型接下来的所有层(只要支持masking)被跳过(屏蔽)。
如果模型接下来的一些层不支持masking,却接受到masking过的数据,则抛出异常。