Python环境在机器学习的时候已经配置完成。
PyCharm是由JetBrains打造的一款Python IDE,VS2010的重构插件Resharper就是出自JetBrains之手。同时支持Google App Engine,PyCharm支持IronPython。这些功能在先进代码分析程序的支持下,使 PyCharm 成为 Python 专业开发人员和刚起步人员使用的有力工具。
PyCharm具体安装教程可以参考这篇博客:https://blog.csdn.net/qq_44809707/article/details/122501118
cmd命令行输入nvidia-smi,在第一行最右边可以看到CUDA的版本号,我的版本是11.5
1.进入官网,然后选择Get Started
2.这里进行Pytorch版本的选择,首先我选择的是Stable稳定版,然后OS是Windows系统,Package包就使用Conda,Language肯定选Python,最后的Compute Platform就根据大家的需求来定了。大家如果想在自己电脑(具有NVIDIA显卡)上跑通代码,就选CUDA,如果不需要在自己电脑上跑(在服务器上跑)或者没有独立显卡,就选CPU。
如果没有安装anaconda的同学,可以参考这篇博客:
https://blog.csdn.net/qq_42257666/article/details/121383450
3.然后复制最下面那段命令行语句,打开anaconda命令行,然后运行。
conda install pytorch torchvision torchaudio cpuonly -c pytorch
4.安装完成后,会提示信息done。
5.我们输入python进入下Python环境,然后输入import torch,如果没有报错说明可以导入成功。
import torch
import numpy as np
x_data=[1.0,2.0,3.0]
y_data = [2.0, 4.0,6.0]
w = torch. Tensor([1.0]) #权重初始值
w.requires_grad = True #是否需要计算梯度,Tensor创建之 后默认不计算梯度
# y_predict=x*w
def forward(x) :
return x * w
def loss(x,y): #损失函数
y_pred = forward(x)
return (y_pred - y) ** 2
#训练过程
#第一步:先算损失Loss
#第二步: backward, 反向传播
#第三步:梯度下降
for epoch in range(100):
for x,y in zip(x_data,y_data):
l = loss(x, y) #前向传播,求Loss, 构建计算图
l.backward() #反向传播,求出计算图中所有梯度存入w中
print("\tgrad:",x, y, w.grad.item())
w.data = w.data - 0.01 * w.grad.data # w.. grad. data:获取梯度,用data计算, 不会建立计算图
w. grad. data. zero_() #注意:将w中所有梯度清零
print("pregress:",epoch,l.item())
torch.Tensor是这个包的核心类。如果设置它的属性.requires_grad为True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用.backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性.要阻止一个张量被跟踪历史,可以调用.detach()方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。
为了防止跟踪历史记录(和使用内存),可以将代码块包装在withtorch.no_grad():中。在评估模型时特别有用,因为模型可能具有requires_grad =True的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。 还有一个类对于autograd的实现非常重要:Function。Tensor和Function互相连接生成了一个非循环图,它编码了完整的计算历史。每个张量都有一个.grad_fn属性,它引用了一个创建了这个Tensor的Function(除非这个张量是用户手动创建的,即这个张量的grad_fn是None)。如果需要计算导数,可以在Tensor上调用.backward()。如果Tensor是一个标量(即它包含一个元素的数据),则不需要为backward()指定任何参数,但是如果它有更多的元素,则需要指定一个gradient参数,它是形状匹配的张量。
import torch
创建一个张量并设置requires_grad=True用来追踪其计算历史
x = torch.ones(2, 2, requires_grad=True)
print(x)
对这个张量做一次运算:
y = x + 2
print(y)
y是计算的结果,所以它有grad_fn属性。
print(y.grad_fn)
对y进行更多操作
z = y * y * 3
out = z.mean()
print(z, out)
.requires_grad_(…) 原地改变了现有张量的 requires_grad 标志。如果没有指定的话,默认输入的这个标志是False。
a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)
梯度
因为out是一个标量。所以让我们直接进行反向传播,out.backward()和out.backward(torch.tensor(1.))等价
out.backward()
输出导数d(out)/dx
print(x.grad)
雅可比向量积的这一特性使得将外部梯度输入到具有非标量输出的模型中变得非常方便。 现在我们来看一个雅可比向量积的例子:
x = torch.randn(3, requires_grad=True)
y = x * 2
while y.data.norm() < 1000:
y = y * 2
print(y)
在这种情况下,y不再是标量。torch.autograd不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给backward:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)
为了防止跟踪历史记录(和使用内存),可以将代码块包装在with torch.no_grad():中。在评估模型时特别有用,因为模型可能具有requires_grad = True的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。 也可以通过将代码块包装在 with torch.no_grad(): 中,来阻止autograd跟踪设置了 .requires_grad=True 的张量的历史记录。
print(x.requires_grad)
print((x ** 2).requires_grad)
with torch.no_grad():
print((x ** 2).requires_grad)
Python安装Pytorch教程(图文详解):https://blog.csdn.net/qq_42257666/article/details/121361983
anaconda安装配置教程:https://blog.csdn.net/qq_42257666/article/details/121383450
https://www.w3cschool.cn/pytorch/pytorch-n63v3kt8.html
Pytorch实现反向传播: https://blog.csdn.net/qq_41033011/article/details/109325070