pytorch是facebook 开发的torch(Lua语言)的python版本,于2017年引爆学术界
官方宣传pytorch侧重两类用户:numpy的gpu版、深度学习研究平台
pytorch使用动态图机制,相比于tensorflow最开始的静态图,更为灵活
当前pytorch支持的系统包括:win,linux,macos
常用的pytorch基本库主要包括:
# 初始化空向量
torch.empty(3,4)
# 随机初始化数组
torch.rand(4,3)
# 初始化零向量
torch.zeros(4,3, dtype=torch.int)
# 从数据构建数组
x = torch.tensor([3,4],dtype=torch.float)
x = torch.IntTensor([3,4])
# 获取tensor的尺寸,元组
x.shape
x.size()
# _在方法中的意义:表示对自身的改变
x = torch.ones(3,4)
# 以下三个式子 含义相同
x = x + x
x = torch.add(x, x)
x.add_(x)
# 索引,像操作numpy一样
x[:,1]
# 改变形状
x.view(-1)
x.view(4,3)
# 如果只包含一个元素值,获取
x = torch.randn(1)
x.item()
# 增加一维
input = torch.randn(32, 32)
input = input.unsqueeze(0)
input.size()
# tensor的data还是tensor,但是requires_grad=False
x.data.requires_grad
# 改变类型
x.type(torch.LongTensor)
# 转换, 共享内存
a= numpy.array([1,2,3])
a = torch.from_numpy(a)
a.numpy()
# gpu是否可用
torch.cuda.is_available()
# 调用设备
device = torch.device('cpu') # cuda or cpu
a = torch.tensor([1,2,3], device='cuda') # 直接在gpu上创建
a = a.to(device) # 上传
a = a.to('cpu') # 上传, cpu or cuda
a = a.cuda() # 上传cuda
# 创建可微的tensor
x = torch.ones(2,3,requires_grad=True)
# 改变可微性
x.requires_grad_(False)
# 获得梯度值
x = torch.ones(2, 2, requires_grad=True)
y = x +2
z = y * y *3
out = torch.sum(z)
out.backward()
x.grad
# 无梯度, 报错
with torch.no_grad():
x = torch.ones(2, 2, requires_grad=True)
y = x +2
z = y * y *3
out = torch.sum(z)
out.backward()
x.grad
两种定义方式
# 通过class定义
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
# 下面通过实例变量的形式声明模型内需要学习的参数
self.fc1 = nn.Linear(5, 10)
self.fc2 = nn.Linear(10,20)
def forward(self, x):
# 下面定义计算图
x = self.fc1(x)
x = nn.functional.relu(x)
x = self.fc2(x)
return x
net = Net()
# 通过Sequential定义
net = Sequential(
nn.Linear(5, 10),
nn.Relu(),
nn.Linear(10, 20)
)
# 获取模型参数
net.parameters() #可用for 迭代
# 模型内参数梯度清零
net.zero_grad()
loss = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)
optimizer.zero_grad() # zero the gradient buffers
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step()
# 测试
with torch.no_grad():
output = net(input)
# 模型
torch.save(net, file)
net = torch.load(file)
# 参数
torch.save(model.state_dict(), file)
net = Model()
net.load_state_dict(file)
训练
batch训练
for i, batch in enumerate(dataloader):
x_batch, y_batch = batch
outputs = net(x_batch)
loss = criterion(output, target)
optimizer.zero_grad()
loss.backward()
optimizer.step()
每隔一段时间,打印验证集loss
测试
基础:
进阶: