torchvision.transforms : 常用的图像预处理方法,提高泛化能力 • 数据中心化 • 数据标准化 • 缩放 • 裁剪 • 旋转 • 翻转 •填充 • 噪声添加 • 灰度变换 • 线性变换 • 仿射变换 • 亮度、饱和度及对比度变换
用不同图片读取方式得到的图片类型不一样
不管你的数据是什么分布,只要相互独立,那么归一化之后均值为0,标准差为1
可以复制链接下载,然后复制到root目录下面,那么代码就会识别使用,不会再次进行下载
drop_last,如果数据集大小不能整除batchsize,True会丢弃最后一部分,Flase会保留
dataloader在dataset中按照batchsize打包数据时候,默认是随机的
请问这四个数有没有可能会重复?不重复,迭代器产生的每次的四个都是不重复的
shuffle,True是指对dataloader进行打乱,那么不同epoch从dataloader中取出数据的顺序就是不一样的,False不打乱,那么每次取出数据的顺序就一样
forward:前向传播
import torch.nn as nn
卷积核的个数等于输出的Channel数,卷积核的通道数等于输入的Channel数
3*32*32=>32*32*32
5*5卷积核
第一次卷积后大小不变,直接设置padding="same"就行