tf.keras.layers.Activation

在输出上运用一个激活函数

参数
activation 激活函数, 例如 tf.nn.relu, 或者内置的激活函数的字符串, 例如"relu".

使用方法:

layer = tf.keras.layers.Activation('relu')
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())

layer = tf.keras.layers.Activation(tf.nn.relu)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())

你可能感兴趣的:(tf.keras.layers.Activation)