pytorch报错:ValueError: num_samples should be a positive integer value, but got num_samp=0

跑baseline调试代码时遇到了一些问题,当时伯乐错,反复找不到原因,后来受到了以下面这篇博客的启发终于解决了问题,我就将这个问题再总结一下:

https://blog.csdn.net/xnmc2014/article/details/85557384

出现的问题的地方可能是如下的地方:调用DataLoder时注意参数

self.train_dataloader = DataLoader(train_dataset, batch_size=TrainOption.train_batch_size, shuffle=TRUE,
                                           num_workers=TrainOption.data_load_worker_num)

shuffle的参数设置错误导致,因为已经有batch_size了,就不需要shuffle来进行随机的sample了,所以在这里的shuffle应该设置为Flase才对。

 

你可能感兴趣的:(python)