Pytorch 学习 Tutorial Getting Started 总结

本篇主要是做一个index一样的目录(同时还有一些知识点),方便之后的学习查询

60-Minute Builtz

What is Pytorch?

  1. 很多操作和tensorflow一致
  2. torch.add(x, y, out = result)
  3. y.add_(x) in_place加法
  4. 可以从tensor复制另外的tensor (x = torch.new_ones(5, 3, dtype=)),甚至x.view()也可以做到
  5. Tensor向numpy的转换
  6. Torch 可以指定建造Tensor的device,用tensor.to()可转移该tensor,或者直接在创建的时候就指定在什么设备上,用Torch.device()创建设备实例。

Auto-grad

PYTORCH可以在创建tensor时指定是否需要微分,同时变量还有grad_fn函数。对最终生成的量(o)进行反向传播,x的gradient就生成了。没搞懂往backword里加参数是什么意思。

Neural-networks

  1. 用class定义神经网络(forward)
  2. 处理input并调用backword()(如何使用class)
  3. 计算损失
  4. 更新权重(优化器)

Traning Classifier 

Pytorch训练分类器完整过程

  1. 加载数据
  2. 定义神经网络结构
  3. 定义损失函数和优化器
  4. 训练迭代网络
  5. 在测试集上测试
  6. 在gpu上做

Data - Parallelism

数据并行计算

 

 

Data Loading and Processing

写一个数据集的类

Transoform(改造数据):

  1. Rescale
  2. Random crop
  3. 转为tensor

遍历数据集

Torchvision, 集成了一些数据集的class

 

Learning Pytorch with Examples

一些例子:(帮助快速学习使用)

  1. Tensor和autograd的例子
  2. nn.Module的例子

 

迁移学习例子

  1. 加载数据(对图像做一些可视化)
  2. 训练模型(对预测结果做可视化)
  3. 迁移学习的主要2个用途:
    1. 对卷积做Finetune
    2. 固定特征提取器

 

用混合前端部署seq2seq

使用混合前端部署seq2seq模型

混合前端:大概就是从eager模式到静态图的转变,主要用于生产环境的计算优化。

 

loading and save Model

各种情况下的保存和读取模型

 

What is torch.nn really?

比较scratch写法和用module写的异同。

主要是torch.nn, optim, Dataset, Dataloader的使用。

 

 

你可能感兴趣的:(Python学习,感悟反思,深度学习)