大模型中训练出现的ignore_index的作用

问题:研究stanford_alpaca代码时,不清楚ignore_index=-100有什么用?

大模型中训练出现的ignore_index的作用_第1张图片

ignore_index作用分析

如图所示,将模型输入的所有token对应标签全部设置成-100

大模型中训练出现的ignore_index的作用_第2张图片

label会送入交叉熵损失函数中进行计算损失值,那么该函数如何起作用呢?

CrossEntropyLoss的作用

官方定义如下,也存在ignore_index参数,且刚好等于-100,这个值是不参与损失计算的

torch.nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean', label_smoothing=0.0)

大模型中训练出现的ignore_index的作用_第3张图片
从数据维度来看,如下所示:
大模型中训练出现的ignore_index的作用_第4张图片

案例

import torch
import torch.nn as nn

# 假设有3个类别,忽略索引为2的类别
criterion = nn.CrossEntropyLoss(ignore_index=2)

# 模拟模型输出和目标标签
outputs = torch.tensor([[0.9, 0.1, 0.0], [0.3, 0.4, 0.3], [0.01, 0.01, 0.98]])
targets = torch.tensor([0, 2, 1])  # 目标标签中包含了要忽略的类别2

# 计算损失
loss = criterion(outputs, targets)

print(loss)

输出:tensor(1.0763)

import torch
import torch.nn as nn

# 假设有3个类别,忽略索引为2的类别
criterion = nn.CrossEntropyLoss()

# 模拟模型输出和目标标签
outputs = torch.tensor([[0.9, 0.1, 0.0], [0.3, 0.4, 0.3], [0.01, 0.01, 0.98]])
targets = torch.tensor([0, 2, 1])  # 目标标签中包含了要忽略的类别2

# 计算损失
loss = criterion(outputs, targets)

print(loss)

输出:tensor(1.0952)

上述代码中的可以从targets = torch.tensor([0, 2, 1])变成targets = torch.tensor([0, 1, -1])吗

在PyTorch中,当使用nn.CrossEntropyLoss作为损失函数时,targets数组应该包含每个样本的类别索引,这些索引必须是非负整数,因为它们代表了类别标签。如果你使用-1作为类别索引,会违反这个要求,因为-1不是有效的类别索引,而且通常在这种情况下,PyTorch会抛出一个错误。
在上述案例代码中,target中的0对应0.9,2对应后面的0.3,1对应0.98

你可能感兴趣的:(人工智能,transformer,gpt)