百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Pytorch中的分布式神经网络训练 pytorch 训练神经网络

itomcoil 2024-12-15 13:58 35 浏览


随着深度学习的多项进步,复杂的网络(例如大型transformer 网络,更广更深的Resnet等)已经发展起来,从而需要了更大的内存空间。 经常,在训练这些网络时,深度学习从业人员需要使用多个GPU来有效地训练它们。 在本文中,我将向您介绍如何使用PyTorch在GPU集群上设置分布式神经网络训练。


通常,分布式训练会在有一下两种情况。

1. 在GPU之间拆分模型:如果模型太大而无法容纳在单个GPU的内存中,则需要在不同GPU之间拆分模型的各个部分。

1. 跨GPU进行批量拆分数据。当mini-batch太大而无法容纳在单个GPU的内存中时,您需要将mini-batch拆分到不同的GPU上。

跨GPU的模型拆分

跨GPU拆分模型非常简单,不需要太多代码更改。 在设置网络本身时,可以将模型的某些部分移至特定的GPU。 之后,在通过网络转发数据时,数据也需要移动到相应的GPU。 下面是执行相同操作的PyTorch代码段。

from torch import nn

class Network(nn.Module):
    def __init__(self, split_gpus=False):
        super().__init__()
        self.module1 = ...
        self.module2 = ...
        self.split_gpus = split_gpus
        if split_gpus:            #considering only two gpus
            self.module1.cuda(0)
            self.module2.cuda(1)

    def forward(self, x):
        if self.split_gpus:
            x = x.cuda(0)
        x = self.module1(x)
        if self.split_gpus:
            x = x.cuda(1)
        x = self.module2(x)
        return x

跨GPU的数据拆分

有3种在GPU之间拆分批处理的方法。

· 积累梯度

· 使用nn.DataParallel

· 使用nn.DistributedDataParallel

积累梯度

在GPU之间拆分批次的最简单方法是累积梯度。 假设我们要训练的批处理大小为256,但是一个GPU内存只能容纳32个批处理大小。 我们可以执行8(= 256/32)个梯度下降迭代而无需执行优化步骤,并继续通过loss.backward()步骤添加计算出的梯度。 一旦我们累积了256个数据点的梯度,就执行优化步骤,即调用optimizer.step()。 以下是用于实现累积渐变的PyTorch代码段。

TARGET_BATCH_SIZE, BATCH_FIT_IN_MEMORY = 256, 32
accumulation_steps = int(TARGET_BATCH_SIZE / BATCH_FIT_IN_MEMORY)
network.zero_grad()                            # Reset gradients tensors
for i, (imgs, labels) in enumerate(dataloader):
    
    preds = network(imgs)                      # Forward pass
    loss = loss_function(preds, labels)        # Compute loss function
    loss = loss / accumulation_steps           # Normalize our loss (if averaged)
    loss.backward()                            # Backward pass
    if (i+1) % accumulation_steps == 0:        # Wait for several backward steps
        optim.step()                           # Perform an optimizer step
        network.zero_grad()                    # Reset gradients tensors

优点: 不需要多个GPU即可进行大批量训练。 即使使用单个GPU,此方法也可以进行大批量训练。

缺点: 比在多个GPU上并行训练要花费更多的时间。

使用nn.DataParallel

如果您可以访问多个GPU,则将不同的批处理拆分分配给不同的GPU,在不同的GPU上进行梯度计算,然后累积梯度以执行梯度下降是很有意义的。


多GPU下的forward和backward

基本上,给定的输入通过在批处理维度中分块在GPU之间进行分配。 在前向传递中,模型在每个设备上复制,每个副本处理批次的一部分。 在向后传递过程中,将每个副本的梯度求和以生成最终的梯度,并将其应用于主gpu(上图中的GPU-1)以更新模型权重。 在下一次迭代中,主GPU上的更新模型将再次复制到每个GPU设备上。

在PyTorch中,只需要一行就可以使用nn.DataParallel进行分布式训练。 该模型只需要包装在nn.DataParallel中。

model = torch.nn.DataParallel(model)
...
...
loss = ...
loss.backward()

优点:并行化多个GPU上的NN训练,因此与累积梯度相比,它减少了训练时间。因为代码更改很少,所以适合快速原型制作。

缺点:nn.DataParallel使用单进程多线程方法在不同的GPU上训练相同的模型。 它将主进程保留在一个GPU上,并在其他GPU上运行不同的线程。 由于python中的线程存在GIL(全局解释器锁定)问题,因此这限制了完全并行的分布式训练设置。

使用DistributedDataParallel

与nn.DataParallel不同,DistributedDataParallel在GPU上生成单独的进程进行多重处理,并利用GPU之间通信实现的完全并行性。但是,设置DistributedDataParallel管道比nn.DataParallel更复杂,需要执行以下步骤(但不一定按此顺序)。

将模型包装在torch.nn.Parallel.DistributedDataParallel中。

设置数据加载器以使用distributedSampler在所有GPU之间高效地分配样本。 Pytorch为此提供了torch.utils.data.Distributed.DistributedSampler。设置分布式后端以管理GPU的同步。 torch.distributed.initprocessgroup(backend ='nccl')。

pytorch提供了用于分布式通讯后端(nccl,gloo,mpi,tcp)。根据经验,一般情况下使用nccl可以通过GPU进行分布式训练,而使用gloo可以通过CPU进行分布式训练。在此处了解有关它们的更多信息https://pytorch.org/tutorials/intermediate/dist_tuto.html#advanced-topics

在每个GPU上启动单独的进程。同样使用torch.distributed.launch实用程序功能。假设我们在群集节点上有4个GPU,我们希望在这些GPU上用于设置分布式培训。可以使用以下shell命令来执行此操作。

python -m torch.distributed.launch --nproc_per_node=4 
--nnodes=1 --node_rank=0
--master_port=1234 train.py <OTHER TRAINING ARGS>

在设置启动脚本时,我们必须在将运行主进程并用于与其他GPU通信的节点上提供一个空闲端口(在这种情况下为1234)。

以下是涵盖所有步骤的完整PyTorch要点。

import argparse
import torch
from torch.utils.data.distributed import DistributedSampler
from torch.utils.data import DataLoader

#prase the local_rank argument from command line for the current process
parser = argparse.ArgumentParser()
parser.add_argument("--local_rank", default=0, type=int)
args = parser.parse_args()

#setup the distributed backend for managing the distributed training
torch.distributed.init_process_group('nccl')

#Setup the distributed sampler to split the dataset to each GPU.
dist_sampler = DistributedSampler(dataset)
dataloader = DataLoader(dataset, sampler=dist_sampler)

#set the cuda device to a GPU allocated to current process .
device = torch.device('cuda', args.local_rank)
model = model.to(device)
model = torch.nn.parallel.DistributedDataParallel(model,  device_ids=[args.local_rank],
                                                          output_device=args.local_rank)

#Start training the model normally.
for inputs, labels in dataloader:
  inputs = inputs.to(device)
  labels = labels.to(device)

  preds = model(inputs)
  loss = loss_fn(preds, labels)
  loss.backward()
  optimizer.step()

请注意,上述实用程序调用是针对GPU集群上的单个节点的。 此外,如果要使用多节点设置,则必须在选择启动实用程序时选择一个节点作为主节点,并提供master_addr参数,如下所示。 假设我们有2个节点,每个节点有4个GPU,第一个IP地址为" 192.168.1.1"的节点是主节点。 我们必须分别在每个节点上启动启动脚本,如下所示。

在第一个节点上运行

python -m torch.distributed.launch --nproc_per_node=4 
--nnodes=1 --node_rank=0
--master_addr="192.168.1.1" --master_port=1234 train.py <OTHER TRAINING ARGS>

在第二个节点上,运行

python -m torch.distributed.launch --nproc_per_node=4 
--nnodes=1 --node_rank=1
--master_addr="192.168.1.1" --master_port=1234 train.py <OTHER TRAINING ARGS>

其他实用程序功能:

在评估模型或生成日志时,需要从所有GPU收集当前批次统计信息,例如损失,准确率等,并将它们在一台机器上进行整理以进行日志记录。 PyTorch提供了以下方法,用于在所有GPU之间同步变量。

1. torch.distributed.gather(inputtensor,collectlist,dst):从所有设备收集指定的inputtensor并将它们放置在collectlist中的dst设备上。

1. torch.distributed.allgather(tensorlist,inputtensor):从所有设备收集指定的inputtensor并将其放置在所有设备上的tensor_list变量中。

1. torch.distributed.reduce(inputtensor,dst,reduceop = ReduceOp.SUM):收集所有设备的input_tensor并使用指定的reduce操作(例如求和,均值等)进行缩减。最终结果放置在dst设备上。

1. torch.distributed.allreduce(inputtensor,reduce_op = ReduceOp.SUM):与reduce操作相同,但最终结果被复制到所有设备。

有关参数和方法的更多详细信息,请阅读torch.distributed软件包。 https://pytorch.org/docs/stable/distributed.html

例如,以下代码从所有GPU提取损失值,并将其减少到主设备(cuda:0)。

#In continuation with distributedDataParallel.py abovedef get_reduced_loss(loss, dest_device):
  loss_tensor = loss.clone()
  torch.distributed.reduce(loss_tensor, dst=dest_device)
  return loss_tensorif args.local_rank==0:
  loss_tensor = get_reduced_loss(loss.detach(), 0)
  print(f'Current batch Loss = {loss_tensor.item()}'

优点:相同的代码设置可用于单个GPU,而无需任何代码更改。 单个GPU设置仅需要具有适当设置的启动脚本。

缺点: BatchNorm之类的层在其计算中使用了整个批次统计信息,因此无法仅使用一部分批次在每个GPU上独立进行操作。 PyTorch提供SyncBatchNorm作为BatchNorm的替换/包装模块,该模块使用跨GPU划分的整个批次计算批次统计信息。 请参阅下面的示例代码以了解SyncBatchNorm的用法。

network = .... #some network with BatchNorm layers in itsync_bn_network = nn.SyncBatchNorm.convert_sync_batchnorm(network)
ddp_network = nn.parallel.DistributedDataParallel(
                                 sync_bn_network,
                                 device_ids=[args.local_rank],                output_device=args.local_rank)

总结

· 要在GPU之间拆分模型,请将模型拆分为submodules,然后将每个submodule推送到单独的GPU。

· 要在GPU上拆分批次,请使用累积梯度nn.DataParallel或nn.DistributedDataParallel。

· 为了快速进行原型制作,可以首选nn.DataParallel。

· 为了训练大型模型并利用跨多个GPU的完全并行训练,应使用nn.DistributedDataParallel。

· 在使用nn.DistributedDataParallel时,用nn.SyncBatchNorm替换或包装nn.BatchNorm层。

作者:Nilesh Vijayrania

deephub翻译组

相关推荐

Python Qt GUI设计:将UI文件转换Python文件三种妙招(基础篇—2)

在开始本文之前提醒各位朋友,Python记得安装PyQt5库文件,Python语言功能很强,但是Python自带的GUI开发库Tkinter功能很弱,难以开发出专业的GUI。好在Python语言的开放...

Connect 2.0来了,还有Nuke和Maya新集成

ftrackConnect2.0现在可以下载了--重新设计的桌面应用程序,使用户能够将ftrackStudio与创意应用程序集成,发布资产等。这个新版本的发布中还有两个Nuke和Maya新集成,...

Magicgui:不会GUI编程也能轻松构建Python GUI应用

什么是MagicguiMagicgui是一个Python库,它允许开发者仅凭简单的类型注解就能快速构建图形用户界面(GUI)应用程序。这个库基于Napari项目,利用了Python的强大类型系统,使得...

Python入坑系列:桌面GUI开发之Pyside6

阅读本章之后,你可以掌握这些内容:Pyside6的SignalsandSlots、Envents的作用,如何使用?PySide6的Window、DialogsandAlerts、Widgets...

Python入坑系列-一起认识Pyside6 designer可拖拽桌面GUI

通过本文章,你可以了解一下内容:如何安装和使用Pyside6designerdesigner有哪些的特性通过designer如何转成python代码以前以为Pyside6designer需要在下载...

pyside2的基础界面(pyside2显示图片)

今天我们来学习pyside2的基础界面没有安装过pyside2的小伙伴可以看主页代码效果...

Python GUI开发:打包PySide2应用(python 打包pyc)

之前的文章我们介绍了怎么使用PySide2来开发一个简单PythonGUI应用。这次我们来将上次完成的代码打包。我们使用pyinstaller。注意,pyinstaller默认会将所有安装的pack...

使用PySide2做窗体,到底是怎么个事?看这个能不能搞懂

PySide2是Qt框架的Python绑定,允许你使用Python创建功能强大的跨平台GUI应用程序。PySide2的基本使用方法:安装PySide2pipinstallPy...

pycharm中conda解释器无法配置(pycharm安装的解释器不能用)

之前用的好好的pycharm正常配置解释器突然不能用了?可以显示有这个环境然后确认后可以conda正在配置解释器,但是进度条结束后还是不成功!!试过了pycharm重启,pycharm重装,anaco...

Conda使用指南:从基础操作到Llama-Factory大模型微调环境搭建

Conda虚拟环境在Linux下的全面使用指南:从基础操作到Llama-Factory大模型微调环境搭建在当今的AI开发与数据分析领域,conda虚拟环境已成为Linux系统下管理项目依赖的标配工具。...

Python操作系统资源管理与监控(python调用资源管理器)

在现代计算环境中,对操作系统资源的有效管理和监控是确保应用程序性能和系统稳定性的关键。Python凭借其丰富的标准库和第三方扩展,提供了强大的工具来实现这一目标。本文将探讨Python在操作系统资源管...

本地部署开源版Manus+DeepSeek创建自己的AI智能体

1、下载安装Anaconda,设置conda环境变量,并使用conda创建python3.12虚拟环境。2、从OpenManus仓库下载代码,并安装需要的依赖。3、使用Ollama加载本地DeepSe...

一文教会你,搭建AI模型训练与微调环境,包学会的!

一、硬件要求显卡配置:需要Nvidia显卡,至少配备8G显存,且专用显存与共享显存之和需大于20G。二、环境搭建步骤1.设置文件存储路径非系统盘存储:建议将非安装版的环境文件均存放在非系统盘(如E盘...

使用scikit-learn为PyTorch 模型进行超参数网格搜索

scikit-learn是Python中最好的机器学习库,而PyTorch又为我们构建模型提供了方便的操作,能否将它们的优点整合起来呢?在本文中,我们将介绍如何使用scikit-learn中的网格搜...

如何Keras自动编码器给极端罕见事件分类

全文共7940字,预计学习时长30分钟或更长本文将以一家造纸厂的生产为例,介绍如何使用自动编码器构建罕见事件分类器。现实生活中罕见事件的数据集:背景1.什么是极端罕见事件?在罕见事件问题中,数据集是...