pytorch mseloss bceloss 对比

 

 

1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类

2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。

3)SmoothL1Loss比mseloss小

4) bceloss收敛比较快

5)bceloss input必须是0-1之间,targets可以不是

6)target 是0.5 input 是0.4与0.6,loss无正负之分,只有大小之分。

 

 

import torch

conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])

loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)

x= loss_fn(conf_data, conf_data).item()
print('self',x)

x= loss_fn(conf_data, conf_mask).item()
print('mse',x)

loss_fn = torch.nn.BCELoss()  # reduce=False, size_average=False)

x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)

mseloss 个值比较࿱

你可能感兴趣的:(pytorch知识宝典)