语义分割训练精度计算

语义分割训练的output结果一般是[batch_size, num_classes, width, height]这样的形式,而label的结果一般是[batch_size, width, height],类似如下形状,outputs:[4,6,480,320],而真值label:[4,480,320]。由于维度不同,无法直接比较,所以这两者要比较就要采取一点方法。

output里面每个类型都有一个值,要取最大的值作为得到的类别结果,所以要用到torch.max()函数。

output = torch.max(input, dim)
# input是softmax函数输出的一个tensor
# dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值

dim就是维度,我这里应该取1

该函数的输出是:

函数会返回两个tensor,第一个tensor是每行的最大值;第二个tensor是每行最大值的索引。

一般我们不需要tensor每行的最大值,而需要的是索引,也就是结果是哪一类。因为这里的num_classes维度为1,所以dim=1,也就是取出这个维度上的最大值。

torch.max(output, dim=1)

其次,我们需要比较output和label的值,那就是说对长*宽的所有像素,要比较类别,如果类别一致就加到正确结果中,用正确结果的数量去除以所有像素的总数量,就是精度。这里有两个问题需要解决:

1. 计算两个tensor之间有多少值相等

在PyTorch中,要计算两个tensor之间有多少值相等,可以使用torch.eq()函数来生成一个布尔型tensor,其中每个元素表示对应位置的元素是否相等(相等为True,不相等为False)。然后,可以使用torch.sum()函数来计算这个布尔型tensor中True的总数,即有多少值相等。但是,需要注意的是,torch.sum()默认计算的是所有元素的和,对于布尔型tensor,True会被当作1处理,False会被当作0处理。

举例如下:

import torch  
  
# 定义两个tensor  
tensor1 = torch.tensor([1, 2, 3, 4, 5])  
tensor2 = torch.tensor([1, 3, 3, 4, 6])  
  
# 使用torch.eq()比较两个tensor  
equal_mask = torch.eq(tensor1, tensor2)  
  
# 计算相等的值的数量  
equal_count = torch.sum(equal_mask)  
  
print("相等的值的数量:", equal_count)
# 输出:相等的值的数量: tensor(3)

在这个例子中,tensor1和tensor2在位置0、2、3的值是相等的(即1,3和4),所以输出会是相等的值的数量: tensor(3, dtype=torch.int64),表示有3个值相等。

注意,torch.sum()的默认数据类型是torch.int64,但你可以通过指定dtype参数来改变结果的数据类型,例如torch.sum(equal_mask, dtype=torch.float32)。不过,在这个场景下,通常使用默认的torch.int64就足够了。

2. 获取一个tensor的所有元素总数

在PyTorch中,要获取一个tensor的元素个数(即tensor的总大小),可以使用.numel()方法。这个方法会返回tensor中所有元素的数量,不论tensor的维度如何。

下面是一个简单的例子:

import torch  
  
# 定义一个tensor  
tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])  
  
# 获取tensor的元素个数  
num_elements = tensor.numel()  
  
print("Tensor的元素个数:", num_elements)
# 输出:Tensor的元素个数: 6

在这个例子中,tensor是一个2x3的二维tensor,包含6个元素。因此,输出将会是Tensor的元素个数: 6。

.numel()方法非常适合于快速计算tensor中元素的总数,无需手动计算各维度的乘积。这是处理不同形状和大小的tensor时的一个非常有用的功能。

综上所述,完整的计算模型训练精度的函数如下:

def get_acc(y_pred, y_true, num_classes):
    #print("y_pred.shape: ", y_pred.shape)
    #print("y_true.shape: ", y_true.shape)
    temp = torch.max(y_pred, dim=1)
    #print(temp[1])
    #print(temp[1].shape)
    # 比较y_true和temp[1]
    equal_mask = torch.eq(temp[1], y_true) # temp[1]就是返回的dim=1的最大值索引,也即是类别号
    equal_count = torch.sum(equal_mask)
    num_elements = y_true.numel()
    #print("equal_count: ", equal_count)
    #print("num_elements: ", num_elements)
    acc = equal_count/num_elements
    #print("acc: ", acc)
    return acc

你可能感兴趣的:(人工智能,深度学习,人工智能)