基于 UAI-Train 平台的分布式训练

简介:

在大型数据集上进行训练的现代神经网络架构,可以跨广泛的多种领域获取可观的结果,涵盖从图像识别、自然语言处理到欺诈检测和推荐系统等各个方面,但训练这些神经网络模型需要大量浮点计算能力。虽然,近年来 GPU 硬件算力和训练方法上均取得了重大进步,但在单一机器上,网络训练所需要的时间仍然长得不切实际,因此需要借助分布式 GPU 环境来提升神经网络训练系统的浮点计算能力。

TensorFlow 分布式训练

214935e67qmzopmjjujimx.png

TensorFlow 采用了数据流范式, 使用节点和边的有向图来表示计算。TensorFlow 需要用户静态声明这种符号计算图,并对该图使用复写和分区rewrite & partitioning,将其分配到机器上进行分布式执行。

215105fncntlhjvcapdrzp.png

TensorFlow 中的分布式机器学习训练使用了如图所示的参数服务器方法 。

Cluster、Job、Task

关于 TensorFlow 的分布式训练,主要概念包括 Cluster、Job、Task,其关联关系如下:

  • TensorFlow 分布式 Cluster 由多个 Task 组成,每个 Task 对应一个 train.Server 实例,作为 Cluster 的一个单独节点;
  • 多个相同作用的 Task 可以被划分为一个 Job,在分布式深度学习框架中我们一般把 Job 划分为 Parameter Server (PS)WorkerParameter Server Job 管理参数的存储和更新工作,而 Worker Job 运行 OPs,作为计算节点只执行计算密集型的 Graph 计算;
  • Cluster 中的 Task 会相对进行通信,以便进行状态同步、参数更新等操作,如果参数的数量过大,一台机器处理不了,这就要需要多个 Task。
TensorFlow 分布式计算模式
In-graph 模式

In-graph 模式,将模型计算图的不同部分放在不同的机器上执行。把计算从单机多 GPU 扩展到了多机多 GPU, 不过数据分发还是在一个节点。这样配置简单, 多机多 GPU 的计算节点只需进行 join 操作, 对外提供一个网络接口来接受任务。训练数据的分发依然在一个节点上, 把训练数据分发到不同的机器上, 将会影响并发训练速度。在大数据训练的情况下, 不推荐使用这种模式。

Between-graph 模式

Between-graph 模式下,数据并行,每台机器使用完全相同的计算图。训练的参数保存在参数服务器,数据不用分发,而是分布在各个计算节点自行计算, 把要更新的参数通知参数服务器进行更新。这种模式不需要再练数据的分发, 数据量在 TB 级时可以节省大量时间,目前主流的分布式训练模式以 Between-graph 为主。

参数更新方式

同步更新

各个用于并行计算的节点,计算完各自的 batch 后,求取梯度值,把梯度值统一送到 PS 参数服务机器中,并等待 PS 更新模型参数。PS 参数服务器在收集到一定数量计算节点的梯度后,求取梯度平均值,更新PS参数服务器上的参数,同时将参数推送到各个 worker 节点。

异步更新

PS 参数服务器只要收到一台机器的梯度值,就直接进行参数更新,无需等待其它机器。这种迭代方法比较不稳定,因为当 A 机器计算完更新了 PS 参数服务器中的参数,可能 B 机器还是在用上一次迭代的旧版参数值。

分布式训练步骤

  1. 命令行参数解析,获取集群的信息 ps_hosts 和 worker_hosts,以及当前节点的角色信息 job_name 和 task_index
  2. 创建当前 Task 结点的 Server
     
      
    1. cluster = tf.train.ClusterSpec({"ps": ps_hosts, "worker": worker_hosts})
    2. server = tf.train.Server(cluster, job_name=FLAGS.job_name, task_index=FLAGS.task_index)
  3. 如果当前节点是Parameter Server,则调用join()无休止等待;如果是Worker,则执行下一步
     
      
    1. if FLAGS.job_name == "ps":
    2. server.join()
  4. 构建要训练的模型
     
      
    1. # build tensorflow graph model
  5. 创建 train.Supervisor 来管理模型的训练过程
     
      
    1. # Create a "supervisor", which oversees the training process.
    2. sv = tf.train.Supervisor(is_chief=(FLAGS.task_index == 0), logdir="/tmp/train_logs")
    3. # The supervisor takes care of session initialization and restoring from a checkpoint.
    4. sess = sv.prepare_or_wait_for_session(server.target)
    5. # Loop until the supervisor shuts down
    6. while not sv.should_stop()
    7. # train model

UAI-Train 分布式训练部署

UCloud AI 训练服务(UCloud AI Train)是面向 AI 训练任务的大规模分布式计算平台,基于高性能 GPU 计算节点提供一站式托管 AI 训练任务服务。用户在提交 AI 训练任务后,无需担心计算节点调度、训练环境准备、数据上传下载以及容灾等问题。

目前,UAI-Train 平台支持 TensorFlow 和 MXNet 框架的分布式训练。需要将 PS 代码和 Worker 代码实现在同一个代码入口中,执行过程中,PS 和 Worker 将使用相同的 Docker 容器镜像和相同的 Python 代码入口进行执行,系统将自动生成 PS 和 Worker 的 env 环境参数。TensorFlow 分布式训练采用 PS-Worker 的分布式格式,并提供 Python 的接口运行分布式训练。

215923iopdloqoctlfyq3r.png

UAI-Train 分布式训练采用 Parameter Server 和 Worker 混合部署的方法,所有计算节点均由 GPU 物理云主机组成。PS 仅使用 CPU 进行计算,Worker 则同时使用 GPU 和 CPU 进行计算,PS 和 Worker 的比例为 1:1。

215935ks4dru1d1zdjgymj.png

数据存储

分布式训练所使用的输入数据可以来自不同的数据源,目前 UAI-Train 仅支持 UFS 作为数据的存储。

Input 数据存储

指定一个 UFS 网盘作为 Input 数据源,UAI-Train 平台在训练执行过程中会将对应的 UFS 数据映射到训练执行的 Worker 容器的 /data/data 目录下,系统会自动将数据映射到执行的容器中,如 ip:/xxx/data/imagenet/tf → /data/data/。

Output 数据存储

指定一个 UFS 网盘作为 output 数据源,UAI-Train 平台在训练执行过程中会将对应的 UFS 数据映射到训练执行的每一个 PS 容器和 Worker 容器的 /data/output 目录下,并以共享的方式访问同一份数据。同时,在训练过程,可以通过其它云主机实时访问训练保存的模型 checkpoint。

案例分析:通过 CIFAR-10 进行图像识别

CIFAR-10 是机器学习中常见的图像识别数据集,该数据集共有 60000 张彩色图像。这些图像分为 10 个类,每类 6000 张图,有 50000 张用于训练,另外 10000 用于测试。

http://groups.csail.mit.edu/vision/TinyImages/

220012jgsx3ktm3kei3teu.jpg

调整训练代码

为了在 UAI 平台上进行训练,首先下载源代码,并对 cifar10_main.py 做如下修改:

  1. 添加相关参数:--data_dir、 --output_dir、 --work_dir、 --log_dir、 --num_gpu,UAI-Train 平台将会自动生成这些参数;
  2. 在代码中增加 UAI 参数:使用 data_dir 配置输入文件夹、使用 output_dir 配置输出文件夹。

具体案例代码可以在 https://github.com/ucloud/uai-sdk/tree/master/examples/tensorflow/train/cifar 获取。

在 UAI-Train 平台执行训练

  1. 根据 https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10_estimator 的说明生成 CIFAR-10 的 tfrecords;
  2. 使用 UAI-SDK 提供的 Python 生成 CIFAR-10 样例的 Docker 镜像;
  3. 确保 Docker 镜像已经上传至 UHub,在 UAI-Train 平台上执行。
 
  1. /data/cifar10_main.py --train-batch-size=16

在 UAI 平台上的分布式训练

CIFAR-10 样例代码使用 tf.estimator.Estimator API,只需一个分布式环境和分布式环境配置,便可直接进行分布式训练,该配置需要适用于 tf.estimator.Estimator API 的标准,即定义一个 TF_CONFIG 配置。

 
  1. TF_CONFIG = {
  2. "cluster":{
  3. "master":["ip0:2222"],
  4. "ps":["ip0:2223","ip1:2223"],
  5. "worker":["ip1:2222"]},
  6. "task":{"type":"worker","index":0},
  7. "environment":"cloud"
  8. }

UAI-Train 平台的分布式训练功能可以自动生成 TensorFlow 分布式训练的 GPU 集群环境,同时为每个训练节点自动生成TF_CONFIG。因此,在 UAI-Train 平台上执行 CIFAR-10 的分布式训练和单机训练一样,仅需要指定 input/output 的 UFS 地址并执行如下指令即可:

 
  1. /data/cifar10_main.py --train-batch-size=16

总结

UAI-Train TensorFlow 的分布式训练环境实现基于 TensorFlow 的分布式训练系统实现,采用默认的 gRPC 协议进行数据交换。PS 和 Worker 采用混合部署的方式部署,PS 使用纯 CPU 计算,Worker 使用 GPU+CPU 计算。

在 UAI-Train 平台中可以非常方便的开展分布式计算,提高效率、压缩训练时间。最后通过 CIFAR-10 案例解析在 UAI-Train 平台上进行训练所需作出的修改,并在 UAI-Train 平台上进行分布式训练。


原文发布时间为:2018-05-24

本文来自云栖社区合作伙伴“Linux中国开源社区”,了解相关信息可以关注“Linux中国开源社区”。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
4天前
|
存储 监控 固态存储
【vSAN分布式存储服务器数据恢复】VMware vSphere vSAN 分布式存储虚拟化平台VMDK文件1KB问题数据恢复案例
在一例vSAN分布式存储故障中,因替换故障闪存盘后磁盘组失效,一台采用RAID0策略且未使用置备的虚拟机VMDK文件受损,仅余1KB大小。经分析发现,该VMDK文件与内部虚拟对象关联失效导致。恢复方案包括定位虚拟对象及组件的具体物理位置,解析分配空间,并手动重组RAID0结构以恢复数据。此案例强调了深入理解vSAN分布式存储机制的重要性,以及定制化数据恢复方案的有效性。
20 5
|
22天前
|
机器学习/深度学习 人工智能 Shell
人工智能平台PAI操作报错合集之在分布式训练过程中遇到报错,是什么原因
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
3天前
|
机器学习/深度学习 人工智能 负载均衡
【AI大模型】分布式训练:深入探索与实践优化
在人工智能的浩瀚宇宙中,AI大模型以其惊人的性能和广泛的应用前景,正引领着技术创新的浪潮。然而,随着模型参数的指数级增长,传统的单机训练方式已难以满足需求。分布式训练作为应对这一挑战的关键技术,正逐渐成为AI研发中的标配。
24 5
|
1天前
|
机器学习/深度学习 分布式计算 Cloud Native
云原生架构下的高性能计算解决方案:利用分布式计算资源加速机器学习训练
【8月更文第19天】随着大数据和人工智能技术的发展,机器学习模型的训练数据量和复杂度都在迅速增长。传统的单机训练方式已经无法满足日益增长的计算需求。云原生架构为高性能计算提供了新的可能性,通过利用分布式计算资源,可以在短时间内完成大规模数据集的训练任务。本文将探讨如何在云原生环境下搭建高性能计算平台,并展示如何使用 PyTorch 和 TensorFlow 这样的流行框架进行分布式训练。
8 2
|
10天前
|
消息中间件 Java Kafka
"Kafka快速上手:从环境搭建到Java Producer与Consumer实战,轻松掌握分布式流处理平台"
【8月更文挑战第10天】Apache Kafka作为分布式流处理平台的领头羊,凭借其高吞吐量、可扩展性和容错性,在大数据处理、实时日志收集及消息队列领域表现卓越。初学者需掌握Kafka基本概念与操作。Kafka的核心组件包括Producer(生产者)、Broker(服务器)和Consumer(消费者)。Producer发送消息到Topic,Broker负责存储与转发,Consumer则读取这些消息。首先确保已安装Java和Kafka,并启动服务。接着可通过命令行创建Topic,并使用提供的Java API实现Producer发送消息和Consumer读取消息的功能。
32 8
|
5天前
|
机器学习/深度学习 资源调度 PyTorch
面向大规模分布式训练的资源调度与优化策略
【8月更文第15天】随着深度学习模型的复杂度不断提高,对计算资源的需求也日益增长。为了加速训练过程并降低运行成本,高效的资源调度和优化策略变得至关重要。本文将探讨在大规模分布式训练场景下如何有效地进行资源调度,并通过具体的代码示例来展示这些策略的实际应用。
15 1
|
22天前
|
人工智能 PyTorch TensorFlow
分布式训练:大规模AI模型的实践与挑战
【7月更文第29天】随着人工智能的发展,深度学习模型变得越来越复杂,数据集也越来越大。为了应对这种规模的增长,分布式训练成为了训练大规模AI模型的关键技术。本文将介绍分布式训练的基本概念、常用框架(如TensorFlow和PyTorch)、最佳实践以及可能遇到的性能瓶颈和解决方案。
190 2
|
30天前
|
存储 缓存 分布式计算
高并发架构设计三大利器:缓存、限流和降级问题之缓存的应对策略问题如何解决
高并发架构设计三大利器:缓存、限流和降级问题之缓存的应对策略问题如何解决
|
1月前
|
机器学习/深度学习 并行计算 TensorFlow
使用Python实现深度学习模型:分布式训练与模型并行化
【7月更文挑战第9天】 使用Python实现深度学习模型:分布式训练与模型并行化
32 1
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能平台PAI产品使用合集之如何配置cluster系统自动生成分布式参数
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。

热门文章

最新文章