一句话让我运行了一晚上!
很气!
报错如图,通过各种百度&CSDN,终于解决了!
走了很多弯路,问题的关键不是batch_size,而是num_size
有份回答说Windows系统下要将num_size设置为0,我觉得不能以偏概全,因为我队友Windows系统下num_size为1,也正常运行了;
但对于我这个情况确实要把num_size改为0,之后就可以正常运行啦
这边有一份详细解答和分析,记录一下~
Pytorch中Dataloader踩坑:RuntimeError: DataLoader worker (pid(s) 6700, 10620) exited unexpectedly



