[tf]中的 tf.nn.sigmoid_cross_entropy_with_logits会对非标量tensor自动调用reduce_sum,所以下面这么写只是为了可读性更强

loss  = tf.nn.sigmoid_cross_entropy_with_logits(labels=self.train_label,logits=logits)
self.loss = tf.reduce_sum(loss)

你可能感兴趣的:([tf]中的 tf.nn.sigmoid_cross_entropy_with_logits会对非标量tensor自动调用reduce_sum,所以下面这么写只是为了可读性更强)