pytorch中的【分布式采样器distributedsampler】

在一个epoch中,sampler相当于把整个数据集
划分成了nproc_per_node份,
每个GPU每次得到batch_size的数量,
也就是nproc_per_node 个GPU分一整份数据集,
总数据量大小就为1个dataset

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>