tf.nn.dropout()

tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它可以用在输入层、隐层和输出层

Dropout就是在训练过程中随机扔掉一部分神经元,这次训练过程中不更新其权值,也不参加神经网络的计算。

主要参数说明:

tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None):

x:输入的张量

keep_prob: 每个元素被保留下来的概率,在初始化时keep_prob是一个占位符, keep_prob = tf.placeholder(tf.float32) 。run时设置keep_prob具体的值。被保留下的神经元的值变为原来的1/keep_prob,其余的都变为0.

举例

import tensorflow as tf
a=tf.constant([1.,2,3,4])
b=tf.nn.dropout(a,0.2)
with tf.Session() as sess:
    print(sess.run(b))

感觉很别扭的一点是,这里的0.2是保留的概率,很疑惑tf设计是为什么不直接设计成被舍弃的概率 

你可能感兴趣的:(tf.nn.dropout())