tf.layers.dropout与tf.nn.dropout的区别

新人爬坑中。最近在试CNN,对于这两个dropout有点疑惑。

Google后,发现有个回答(原文点击这里)。这里记录下。


对于这两个方法有一下几点区别:

  1. tf.nn.dropout 中参数 keep_prob :每一个元素被保存下的概率。而 tf.layer.dropout 中参数 rate :每一个元素丢弃的概率。所以,keep_prob = 1 - rate。
  2. 在 tf.layer.dropout 中有一个 training 参数:在training模式中,返回应用dropout后的输出;或者在非training模式下,正常返回输出(没有dropout)。这里说的training模式也即是training参数为True的时候。

你可能感兴趣的:(tf.layers.dropout与tf.nn.dropout的区别)