其他分享
首页 > 其他分享> > 分布式训练

分布式训练

作者:互联网

分布式训练

深度学习中,越来越多的场景需要分布式训练。由于分布式系统面临单机单卡所没有的分布式任务调度、复杂的资源并行等问题,因此,通常情况下,分布式训练对用户有一定的技术门槛。

在 OneFlow 中,通过顶层设计与工程创新,做到了 分布式最易用,用户不需要特别改动网络结构和业务逻辑代码,就可以方便地使用 OneFlow 进行分布式训练。这是 OneFlow 区别于其它框架的 最重要特性

本文将介绍:

OneFlow 分布式优势

配置分布式训练网络

只需要增加几行简单的配置代码,指定分布式计算的节点 IP 以及每个节点使用 GPU 的数量,即可实现分布式的训练网络。

换句话说,这使得单机训练程序与分布式训练程序几乎是一样的,作为 OneFlow 用户,只需要专注于程序的 业务逻辑 及 模型结构本身 ,而不用操心分布式执行问题。分布式的一切问题,都由 OneFlow 处理。

下面,介绍一个例子:将单机版的训练程序,通过添加几行配置代码后将其改造为分布式训练程序。

单机训练程序

以下是单机训练程序的框架,因为其网络结构及业务逻辑与文末的分布式程序完全一样,因此函数实现未详细列出。

import numpy as np

import oneflow as flow

import oneflow.typing as tp

 

BATCH_SIZE = 100

 

def mlp(data):

  #构建网络...

 

 

@flow.global_function(type="train")

def train_job(

    images: tp.Numpy.Placeholder((BATCH_SIZE, 1, 28, 28), dtype=flow.float),

    labels: tp.Numpy.Placeholder((BATCH_SIZE,), dtype=flow.int32),

) -> tp.Numpy:

  #作业函数实现...

  #配置训练优化方法和参数

 

 

if __name__ == '__main__':

  #调用作业函数,开始训练...

      loss = train_job(images, labels)

  #...

GPU及端口配置

在 oneflow.config 模块中,提供了分布式相关的设置接口,主要使用其中两个:

以下代码中,设置每台主机使用的 GPU 数目为1,采用9988端口通信。大家可以根据自身环境的具体情况进行修改。

#每个节点的 gpu 使用数目

flow.config.gpu_device_num(1)

#通信端口

flow.env.ctrl_port(9988)

注意,即使是单机的训练,只要有多张 GPU 卡,也可以通过 flow.config.gpu_device_num 将单机程序,设置为单机多卡的分布式程序,如以下代码,设置1台(每台)机器上,2张 GPU 卡参与分布式训练:

flow.config.gpu_device_num(2)

节点配置

接着,需要配置网络中的主机关系,需要提前说明的是,OneFlow 中,将分布式中的主机称为节点(node)。

每个节点的组网信息,由一个 dict 类型存放,其中的 "addr" 这个 key 对应了节点的 IP 。 所有的节点放置在一个 list 中,经接口 flow.env.machine 告之 OneFlow ,OneFlow 内部会自动建立各个节点之间的连接。

nodes = [{"addr":"192.168.1.12"}, {"addr":"192.168.1.11"}]

flow.env.machine(nodes)

如以上代码中,的分布式系统中有2个节点,IP 分别为"192.168.1.12"与"192.168.1.11"。

注意,节点 list 中的第0个节点(以上代码中的"192.168.1.12"),又称为 master node,整个分布式训练系统启动后,完成构图,其它节点等待;当构图完成后,所有节点会收到通知,知晓各自联系的其它节点,去中心化地协同运行。

在训练过程中,由 master node 保留标准输出及保存模型,其它节点只负责计算。

可以将针对分布式的配置代码封装为函数,方便调用:

def config_distributed():

    print("distributed config")

    #每个节点的gpu使用数目

    flow.config.gpu_device_num(1)

    #通信端口

    flow.env.ctrl_port(9988)

 

    #节点配置

    nodes = [{"addr":"192.168.1.12"}, {"addr":"192.168.1.11"}]

    flow.env.machine(nodes)

分布式训练及代码

单机程序加入 OneFlow 的分布式配置代码后,就成为了分布式程序,在所有的节点运行一样的程序即可。

可以将分布式训练程序与上文的 单机训练程序 比较,会发现仅仅只是增加了 config_distributed 函数并调用,之前的单机训练脚本,就成为了分布式训练脚本。

分布式脚本代码:distributed_train.py

在 192.168.1.12 及 192.168.1.12 上 均运行:

wget https://docs.oneflow.org/code/basics_topics/distributed_train.py

python3 distributed_train.py

192.168.1.12 机器上将显示程序结果。

FAQ

  1. 请检查 ssh 配置,确保两台机器之间能够免密 ssh 互联
  2. 请确保两台机器使用了相同版本的 OneFlow、运行的脚本程序完全一样
  3. 请确保训练使用的端口未被占用,或使用 oneflow.config.ctrl_port 更换端口
  4. 如果在环境变量中设置了代理,请确保代理能够正常工作,或者取消掉代理

docker 默认的模式下,物理机与容器中的端口是隔离的,请使用 --net=host host 模式,或者启动容器时使用 -v 选项进行端口映射。具体请查阅 docker 的手册

若存在虚拟网卡,可能因为 nccl 的通信走虚拟网卡而无法通信。此时需要通过 export NCCL_SOCKET_IFNAME=device_name 来指定通信网卡,具体可参阅 nccl 官方文档

 

标签:OneFlow,训练,flow,程序,节点,分布式
来源: https://www.cnblogs.com/wujianming-110117/p/14403190.html