1)torch.max(input)
:只需送入输入张量;
或
2)torch.max(input, dim, keepdim=False, *, out=None)
:送入张量的同时,需要指定沿着哪个维度进行最大值运算;
这两种调用方式对输入张量的形状没有要求,一维数据或者多维数据都可以。
1)返回输入张量中最大值相关数据:
2)如果有多个最大值则返回第一个最大值;
首先定义一个简单的方法,当传入张量x和维度dim参数时,分别打印两种调用方式对应的输出:
def print_maxvalue(x,dim=0):
max_value=torch.max(x)
print(max_value)
print('-'*10)
max_value,max_index=torch.max(x,dim=dim)
print(max_value)
print(max_index)
对于二维数据,其形状为(H,W)=(10,2):
x=torch.tensor([[0, 1],
[2, 5],
[7, 3],
[5, 1],
[8, 7],
[7, 6],
[9, 6],
[4, 4],
[2, 0],
[9, 9]])
print_maxvalue(x,dim=0)
输出结果:
tensor(9) # 所有元素中的第一个最大值
----------
tensor([9, 9]) # 沿着指定dim维进行最大值运算
tensor([6, 9]) # 沿着指定dim维进行最大值运算,并返回最大值对应的下标
结果分析:
(1)方式一
将张量展开成一维张量,其长度为L=10×2=20,然后返回第一个最大值9
(2)方式二
指定dim=0,此维度长度为10,表示沿着第0维进行最大值运算,分别对第0维的10个元素取最大值,并返回其对应下标
1)torch.argmax(input)
:只需送入输入张量;
或
2)torch.argmax(input, dim, keepdim=False)
:送入张量的同时,需要指定沿着哪个维度进行运算;
这两种调用方式对输入张量的形状没有要求,一维数据或者多维数据都可以。
1)返回输入张量中最大值的索引:
2)如果有多个最大值则返回第一个最大值的下标;
3)返回torch.max函数指定dim时返回的第二个值;
首先定义一个简单的方法,当传入张量x和维度dim参数时,分别打印两种调用方式对应的输出:
def print_(x,dim=0):
# print(x)
# print(x.shape)
print('-' * 10)
# 方式一
max_index = torch.argmax(x)
print(max_index)
print('-' * 10)
# 方式二
max_index = torch.argmax(x, dim=dim)
print(max_index)
print('-' * 10)
1)一维数据:L
x=torch.tensor([8, 2, 7, 15, 1])
print_(x,dim=0)
输出结果:
tensor(3)
tensor(3)
这是最简单的一种方式,就类似一维数组查询最大元素对应下标的过程一致:
2)二维数据:(H,W)
x=torch.tensor([
[0, 1],
[2, 5],
[7, 3],
[5, 1],
[8, 7],
[7, 6],
[9, 6],
[4, 4],
[2, 0],
[9, 9]])
print_(x,dim=0)
# print_(x,dim=1)
输出结果:
dim=0:H,W->W
tensor(12)
tensor([6, 9])
# 一般分类问题就适用这种情况,在一个批次的预测输出中确定每个样本的类别,输出结果中每个元素即表示批次中每个样本对应的类别
dim=1: H,W->H
tensor(12)
tensor([1, 1, 0, 0, 0, 0, 0, 0, 0, 0])
结果分析:
(1)方式一
先将输入张量沿着所有维度展开为一维数据,然后返回第一个最大值9对应的下标12
(2)方式二
函数沿着指定的dim维度进行运算,
dim=0表示张量沿着第0维的方向进行运算,比如此处dim=0维长度为10,则表示在每列的10个元素中找到最大值并返回其下标:
此处第一列最大值为9,而其下标为6
dim=1表示张量沿着第1维的方向进行运算,比如此处dim=1维长度为2,则表示在每行的2个元素中找到最大值并返回其下标:
此处第一行最大值为1,而其下标为1
3)多维数据:(N,C,H,W)
x=torch.tensor([[
[[1, 3],
[7, 8]],
[[8, 1],
[5, 3]],
[[2, 8],
[4, 4]]],
[[[3, 0],
[2, 0]],
[[0, 4],
[7, 16]],
[[4, 8],
[4, 3]]]])
print_(x,dim=0)
# print_(x,dim=1)
# print_(x,dim=2)
# print_(x,dim=3)
输出结果:
dim=0:N,C,H,W->C,H,W
tensor(19)
tensor([[[1, 0],
[0, 0]],
[[0, 1],
[1, 1]],
[[1, 0],
[0, 0]]])
dim=1:N,C,H,W->N,H,W
tensor(19)
tensor([[[1, 2],
[0, 0]],
[[2, 2],
[1, 1]]])
dim=2:N,C,H,W->N,C,W
tensor(19)
tensor([[[1, 1],
[0, 1],
[1, 0]],
[[0, 0],
[1, 1],
[0, 0]]])
dim=3:N,C,H,W->N,C,H
tensor(19)
tensor([[[1, 1],
[0, 0],
[1, 0]],
[[0, 0],
[1, 1],
[1, 0]]])
结果分析:
开始就说到了,
(1)方式一
输入张量形状为(N,C,H,W)=(2,3,2,2),可以清晰地看到,将张量展开为一维数据为长度为L=2×3×2×2=24,且第一个最大值16此时对应的下标为19。
(2)方式二
dim=0维长度为2,剩余维度为(3,2,2)
依次类推…
总结:
其实该函数应用场景最多的是分类任务在进行测试时,判断预测结果的对应类别,此时函数的输入通常为二维数据,只需要使用torch.argmax(x,dim=1)即可达到想要的结果。
1)torch.max在寻找输入张量中最大值,而torch.argmax则是寻找最大值对应的下标;
2)二者均使用第一种方式,即未指定dim时,直接将张量展开为一维数据,torch.max返回第一个最大值本身,而torch.argmax则返回最大值的下标;
3)二者均使用第二种方式,即指定dim时,torch.max沿着指定的dim维选取最大值,同时返回最大值本身及其对应下标,而torch.argmax只返回最大值对应的下标。换句话说,torch.argmax的输出结果其实是torch.max指定dim时返回结果中的第二个元素,对应最大值的下标索引;
举个例子:
对于输入张量:
x=torch.tensor([[0, 1],
[2, 5],
[7, 3],
[5, 1],
[8, 7],
[7, 6],
[9, 6],
[4, 4],
[2, 0],
[9, 9]])
torch.argmax(x,dim=0)的输出结果为:
tensor([6, 9])
torch.max(x,dim=0)的输出结果为:
torch.return_types.max(values=tensor([9, 9]),indices=tensor([6, 9]))
其中indices即表示指定dim时找到的最大值的对应下标。