pytorch常用函数:torch.nn.functional.binary_cross_entropy_with_logits

torch.nn.functional.binary_cross_entropy_with_logits

pytorch常用函数:torch.nn.functional.binary_cross_entropy_with_logits_第1张图片

它的参数有:
input, target,weight,size_average,reduce,reduction,pos_weight,下面分别说一下每个参数的用法

input

input–任意形状的张量目标–与输入形状相同的张量

target

target:与输入形状相同的张量

weight

weight(Tensor,可选)–手动调整比例的权重(如果重复进行以匹配输入张量形状)

size_average

size_average(bool,可选)–已弃用(请参阅reduction)。默认情况下,损失是批次中每个损失元素的平均数。请注意,对于某些损失,每个样本有多个元素。如果该字段size_average 设置为False,则每个小批量的损失总和。当reduce为时被忽略False。默认:True

reduce

reduce(bool,可选)–不推荐使用(请参阅reduction)。默认情况下,根据,对每个小批量的损失进行平均或求和size_average。当reduce为is时False,则返回每批元素的损失,然后忽略size_average。默认:True

reduction

reduction(字符串,可选)–指定要应用于输出的减少量: ‘none’| ‘mean’| ‘sum’。‘none’:不应用缩减, ‘mean’:输出的总和除以输出中元素的数量,‘sum’:输出的总和。注意:size_average 和reduce正在弃用的过程中,同时,指定这两个args中的任何一个将覆盖reduction。默认:‘mean’

pos_weight

pos_weight(Tensor,可选)–正例的权重。必须是长度等于类数的向量。

例子

>>> input = torch.randn(3, requires_grad=True)
>>> target = torch.empty(3).random_(2)
>>> loss = F.binary_cross_entropy_with_logits(input, target)
>>> loss.backward()

你可能感兴趣的:(pytorch,python,python)