pytorch多显卡训练

torch.nn.DataParallel.forward()

# 将张量切成大致相等的块并将它们分布在给定的GPU上。 复制对不是张量的对象的引用。
inputs, kwargs = self.scatter(inputs, kwargs, self.device_ids)
if len(self.device_ids) == 1:
    return self.module(*inputs[0], **kwargs[0])
# 复制多份模型(包括子节点)到每个gpu,并返回为replicas
replicas = self.replicate(self.module, self.device_ids[:len(inputs)])
# 通过多线程调用output = module(*input, **kwargs)
outputs = self.parallel_apply(replicas, inputs, kwargs)
# 从不同gpu收集tensors
return self.gather(outputs, self.output_device)
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 今天感恩节哎,感谢一直在我身边的亲朋好友。感恩相遇!感恩不离不弃。 中午开了第一次的党会,身份的转变要...
    迷月闪星情阅读 10,615评论 0 11
  • 彩排完,天已黑
    刘凯书法阅读 4,277评论 1 3
  • 没事就多看看书,因为腹有诗书气自华,读书万卷始通神。没事就多出去旅游,别因为没钱而找借口,因为只要你省吃俭用,来...
    向阳之心阅读 4,820评论 3 11
  • 表情是什么,我认为表情就是表现出来的情绪。表情可以传达很多信息。高兴了当然就笑了,难过就哭了。两者是相互影响密不可...
    Persistenc_6aea阅读 126,101评论 2 7