在输出上运用一个激活函数
参数 | |
---|---|
activation |
激活函数, 例如 tf.nn.relu , 或者内置的激活函数的字符串, 例如"relu". |
使用方法:
layer = tf.keras.layers.Activation('relu')
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
layer = tf.keras.layers.Activation(tf.nn.relu)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())