【项目简介】
PyTorch是利用深度学习进行数据科学研究的重要工具,在灵活性、可读性和性能上都具备相当的优势,近年来已成为学术界实现深度学习算法最常用的框架。考虑到PyTorch的学习兼具理论储备和动手训练,两手都要抓两手都要硬的特点,我们开发了 《深入浅出PyTorch》课程,期望以组队学习的形式,帮助大家从入门到熟练掌握PyTorch工具,进而实现自己的深度学习算法。学习的先修要求是,会使用Python编程,了解包括神经网络在内的机器学习算法,勤于动手实践。
我们的愿景是:通过组队学习,大家能够掌握由浅入深地PyTorch的基本知识和内容,经过自己的动手实践加深操作的熟练度。同时通过项目实战,充分锻炼编程能力,掌握PyTorch进行深度学习的基本流程,提升解决实际问题的能力。
【教程地址】
在线教程链接:深入浅出PyTorch — 深入浅出PyTorch
Github在线教程:GitHub - datawhalechina/thorough-pytorch: PyTorch入门教程,在线阅读地址:https://datawhalechina.github.io/thorough-pytorch/
Gitee在线教程:https://gitee.com/datawhalechina/thorough-pytorch
b站视频:深入浅出Pytorch_哔哩哔哩_bilibili
教程目录直达
Anaconda Pytorch CUDA GPU 版本匹配问题整理(linux远程服务器)
安装配置笔记链接:http://t.csdn.cn/fCyg1
数据预处理 | 格式统一 数据变换 划分训练集测试集 |
(代码截图) |
基本配置 | 导包 GPU环境 超参数 |
|
---|---|---|
数据读入 | 自定义Dataset类 DataLoader 可视化检测 |
|
模型构建 | 神经网络的构造 class MLP(nn.Module) 常见的层自定义可反复调用(全连接层、卷积层、池化层与循环层等等) 一个神经网络的典型训练过程如下: *定义包含一些可学习参数(或者叫权重)的神经网络 *在输入数据集上迭代 *通过网络处理输入 *计算 loss (输出和正确答案的距离) *将梯度反向传播给网络的参数 *更新网络的权重,一般使用一个简单的规则:weight = weight - learning_rate * gradient |
|
模型初始化 | torch.nn.init 常见的初始化函数 初始化函数的封装 |
|
损失函数 | 在深度学习中常见的损失函数及其定义方式 PyTorch中损失函数的调用 |
|
训练和评估 | model.train() # 训练状态 model.eval() # 验证/测试状态 |
|
可视化 | 可视化网络结构 可视化CNN卷积核 可视化CNN特征图 可视化CNN显著图(class activation map) TensorBoard工具 |
|
优化器 | torch.optim | |
PyTorch的模型部署 | 1. 定义超分辨模型 # 定义超分辨网络 self.relu = nn.ReLU(inplace=inplace) self._initialize_weights() def forward(self, x): # 实例化模型 # 将模型设置为推理模式 # 导出模型 ort_session = onnxruntime.InferenceSession("super_resolution.onnx") # 将张量转化为ndarray格式 # 构建输入的字典和计算输出结果 # 比较使用PyTorch和ONNX Runtime得出的精度 print("Exported model has been tested with ONNXRuntime, and the result looks good!") # 读取图片 img_ycbcr = img.convert('YCbCr') to_tensor = transforms.ToTensor() # 保存最后得到的图片 final_img.save("/cat_superres_with_ort.jpg") |
知识点
自动求导:PyTorch 中,所有神经网络的核心是 autograd 包。torch.Tensor
是这个包的核心类。.requires_grad = True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性。如果 Tensor 是一个标量(即它包含一个元素的数据),则不需要为 backward() 指定任何参数,但是如果它有更多的元素,则需要指定一个gradient参数,该参数是形状匹配的张量。创建张量:x = torch.ones(2, 2, requires_grad=True)
梯度:进行反向传播,这里out 是一个标量,因此out.backward()和 out.backward(torch.tensor(1.)) 等价。print(x.grad)输出导数。数学上,若有向量函数y→=f(x→),那么 y→ 关于 x→ 的梯度就是一个雅可比矩阵。注意:grad在反向传播过程中是累加的(accumulated),这意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需把梯度清零。x.grad.data.zero_()
并行计算:在编写程序中,当我们使用了 .cuda() 时,其功能是让我们的模型或者数据从CPU迁移到GPU(0)当中,通过GPU开始计算。当我们的服务器上有多个GPU,应该指明使用的GPU是哪一块,不设置的话,tensor.cuda()方法会默认将tensor保存到第一块GPU上,等价于tensor.cuda(0),这将会导致爆出out of memory的错误。常见的并行的方法:1.网络结构分布到不同的设备中(Network partitioning) 2.同一层的任务分布到不同数据中(Layer-wise partitioning) 3.不同的数据分布到不同的设备中,执行相同的任务(Data parallelism)现在的主流方式是数据并行的方式(Data parallelism).
损失函数:就是模型的负反馈
设置模型的状态:如果是训练状态,那么模型的参数应该支持反向传播的修改;如果是验证/测试状态,则不应该修改模型参数。在PyTorch中,模型的状态设置非常简便,如下的两个操作二选一即可:model.train() # 训练状态 model.eval() # 验证/测试状态