pytorch内置的数据迭代器:Dataloader

每次迭代中,数据加载器都会读取小批量数据(大小为batch_size)可以随机先打乱所有样本

train_iter = data.DataLoader(train, batch_size, shuffle=True,num_workers=4)
#第一个参数表示读入的是训练集,第二个参数是一次读几张图片,第三个参数是是否打乱
#第四个参数是指使用几个进程来读取数据,可以加快数据读取速度


#返回的是一个列表[(图片100,标签100),(图片167,标签167),(图片34,标签34).........]
for img,label in enumerate(train_iter):
    print(img)
    print(label)  

#也有下面这种写法
for data in enumerate(train_iter):
    img,label=data

你可能感兴趣的:(深度学习,深度学习)