Pytorch笔记

Dataset 

Pytorch笔记_第1张图片

Pytorch笔记_第2张图片

Pytorch笔记_第3张图片

Pytorch笔记_第4张图片

torchvision.transforms : 常用的图像预处理方法,提高泛化能力 • 数据中心化 • 数据标准化 • 缩放 • 裁剪 • 旋转 • 翻转 •填充 • 噪声添加 • 灰度变换 • 线性变换 • 仿射变换 • 亮度、饱和度及对比度变换

Pytorch笔记_第5张图片

Pytorch笔记_第6张图片

Pytorch笔记_第7张图片

用不同图片读取方式得到的图片类型不一样

Pytorch笔记_第8张图片

Transforms 

Pytorch笔记_第9张图片

 Pytorch笔记_第10张图片

不管你的数据是什么分布,只要相互独立,那么归一化之后均值为0,标准差为1

Pytorch笔记_第11张图片

Pytorch笔记_第12张图片

Pytorch笔记_第13张图片torchvision中的数据集Pytorch笔记_第14张图片

 可以复制链接下载,然后复制到root目录下面,那么代码就会识别使用,不会再次进行下载

Dataloader

Pytorch笔记_第15张图片

Pytorch笔记_第16张图片

drop_last,如果数据集大小不能整除batchsize,True会丢弃最后一部分,Flase会保留

dataloader在dataset中按照batchsize打包数据时候,默认是随机的

请问这四个数有没有可能会重复?不重复,迭代器产生的每次的四个都是不重复的

shuffle,True是指对dataloader进行打乱,那么不同epoch从dataloader中取出数据的顺序就是不一样的,False不打乱,那么每次取出数据的顺序就一样

Pytorch笔记_第17张图片

搭建网络

Pytorch笔记_第18张图片

forward:前向传播

Pytorch笔记_第19张图片

import torch.nn as nn

卷积层

卷积核的个数等于输出的Channel数,卷积核的通道数等于输入的Channel数

3*32*32=>32*32*32

5*5卷积核

Pytorch笔记_第20张图片

第一次卷积后大小不变,直接设置padding="same"就行

1D卷积Pytorch笔记_第21张图片

卷积核通道数等于输入通道数Pytorch笔记_第22张图片 

Pytorch笔记_第23张图片

你可能感兴趣的:(pytorch,python)