keras 模型参数

Tensorflow: 1.2.0   Keras: 2.1.6 

最近学习keras, 下载了数据集和一些已经训练好的模型,比如VGG16,VGG19 

因为查阅keras 文档,发现很多文章参数都没有更新,所以自己根据安装的版本记下以便于自己记忆。

Dense() 普通的全连接层

参数:

output_dim: 输出空间维度

init: 初始化权重函数名称

activation: 激活函数,'relu','sigmoid'等

weights: 初始化权重

W_regularizer: 权重上的正则化

b_regularizer: 偏置项的正则化

activity_regularizer: 施加在输出上的正则化

W_constraint: 权重上约束项

b_constraint: 偏置上的约束项

bias: 是否添加偏置项

input_dim :输入的维度(如果作为模型的第一层,一定要输入,或者用input_shape)

卷积层:

Convolution1D: 

一维卷积层

nb_filter: 卷积核的个数

filter_length: 每个卷积核的长度

init: 权重初始化函数名称

weights: 权重初始化

border_mode: 'valid', 'same' or 'full' 如果是‘valid ’ 进行有效的卷积,对边界数据不处理,‘same'表示保留边界处的卷积结果’

subsample_length: 子样的长度

W_regularizer: 权重上的正则化

b_regularizer:  偏置项上的正则化

activity_regularizer: 输出上的正则化

W_constraint: 权重上的约束项

b_constraint: 偏置上的约束项

bias: 偏置项

input_dim: 输入的维度

input_length: 

Convolution2D

nb_filter: 卷积核的个数

nb_row: 卷积核的行数

nb_col: 卷积核的列数

init: 权重初始化函数名称

activation: 激活函数

weights: 权重初始化

border_mode: 'valid', 'same' or 'full'

'valid'代表只进行有效的卷积,对边界数据不处理

'same'代表保留边界处的卷积结果

W_regularizer  同Convolution1D

 b_regularizer: 同Convolution1D

activity_regularizer: 同Convolution1D

W_constraint:   同Convolution1D

b_constraint:  同Convolution1D

dim_ordering: 如果是'th', 则是基于thenao, 则为(channels, row,cols)的张量

如果是'tf', 基于tensorflow, 则为(rows, cols, channels)的张量

bias: 是否有偏置项

Embedding :嵌入层

Embedding层只能作为模型的第一层

input_dim: 大或等于0的整数,字典长度,即输入数据最大下标+1

output_dim: 大于0的整数,代表全连接嵌入的维度

init: 初始化函数名称

weights: .权重的初始化

W_regularizer: 权重上的正则化

W_constraint: 权重上的约束项

mask_zero: 布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 1

input_length: 当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。

dropout: 0-1之间的浮点数,控制需要断开的神经元的比例

循环层

LSTM , GRU  , simpleRNN 参数类似都如下

simpleRNN: keras.layers.simpleRNN()

output_dim: 输出的维度

init: 权重初始化函数

inner_init: 内部单元的初始化函数

activation: 激活函数

W_regularizer:权重上的正则项

U_regularizer: 循环核上的正则项

b_regularizer: 偏置项上的正则项

dropout_W: 0-1之间的浮点数,控制输入线性变换的神经元断开比例

 dropout_U: 0-1之间的浮点数,控制循环状态的线性变换的神经元断开比例

激活函数一般有:‘relu','sigmoid','tanh','linear',softmax’

你可能感兴趣的:(keras 模型参数)