如何运行 TensorFlow 分布式训练|学习笔记

简介: 快速学习如何运行 TensorFlow 分布式训练

发者学堂课程【阿里云容器服务使用教程如何运行 TensorFlow 分布式训练笔记与课程紧密联系,让用户快速学习知识。

课程地https://developer.aliyun.com/learning/course/438/detail/5428


如何运行 TensorFlow 分布式训练


使用包含GPU资源节点的容器服务

悬着【容器服务】——【解决方案】——【模型训练】

选择基于 TensorFlow 分布式训练应用

从共享存储数据卷读取训练数据,从 GitHub 获得模型代码,指定执行代码的命令和参数(包括超参数等)

应用名 tf-train-distributed  训练框架 tensorflow:1.0.0 分布式

训练。

Parameter Server 数量1  Worker 数量2  

单 Woker 使用 GPU 数量1

执行命令:

python mnist dist

train.py--data_dir=/input/tensorflow/mnist/data/--train_steps=5000--log_device_placement=False--log_dir=/output/mnist/dist/log--batch_size=100--learning_rate=0.01--sync_replicas=False--num_gpus=2

训练日志路径:

/output/training_logs

(保证与训练代码中日志输出一致)

训练应用后被创建后立即开始执行分布式训练作业,包含1个

Parameter Server 服务,Woker 服务和 TensorBoard 监控服务

通过查看一个服务的运行日志,可以实时了解训练的进程,训练时长取决于模型复杂度,计算资源是否充足,训练数据集大小等因素。

可以看到2个 Woker 服务分别运行部分训练迭代,并通过 Parameter Server 服务同步梯度和权值的更新。

训练过程产生的状态数据可以通过 TensorBoard 服务实时监控。方便及时了解训练趋势,避免无意义地长时间运行。

相关文章
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
ICLR 2025 | EDiT:一种基于 Local SGD 策略的大模型高效分布式训练方法
蚂蚁 AI Infra 团队在深度学习最核心之一的训练框架方向上持续投入与创新,实现了提升资源利用率、加速训练、提升训练稳定性等目标。我们提出的 EDiT 方法,即为其中一项工作。
|
3月前
|
Ubuntu 定位技术 TensorFlow
源码编译安装ROCm以运行tensorflow-rocm(适用于Ubuntu 23.04)
总结一番,完成这趟奇妙的技术之旅后,乐趣多多,还能享受 tensorflow-rocm 带来的便利和速度。这趟旅程需要耐心,勇气,以及对技术的热爱。朋友,做好准备,让你的Ubuntu系统展翅高飞吧!
147 9
|
11月前
|
并行计算 Shell TensorFlow
Tensorflow-GPU训练MTCNN出现错误-Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
在使用TensorFlow-GPU训练MTCNN时,如果遇到“Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED”错误,通常是由于TensorFlow、CUDA和cuDNN版本不兼容或显存分配问题导致的,可以通过安装匹配的版本或在代码中设置动态显存分配来解决。
188 1
Tensorflow-GPU训练MTCNN出现错误-Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED
|
6月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
441 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
11月前
|
数据采集 TensorFlow 算法框架/工具
【大作业-03】手把手教你用tensorflow2.3训练自己的分类数据集
本教程详细介绍了如何使用TensorFlow 2.3训练自定义图像分类数据集,涵盖数据集收集、整理、划分及模型训练与测试全过程。提供完整代码示例及图形界面应用开发指导,适合初学者快速上手。[教程链接](https://www.bilibili.com/video/BV1rX4y1A7N8/),配套视频更易理解。
265 0
【大作业-03】手把手教你用tensorflow2.3训练自己的分类数据集
|
9月前
|
机器学习/深度学习 数据可视化 TensorFlow
使用Python实现深度学习模型的分布式训练
使用Python实现深度学习模型的分布式训练
366 73
|
11月前
|
缓存 TensorFlow 算法框架/工具
TensorFlow学习笔记(一): tf.Variable() 和tf.get_variable()详解
这篇文章详细介绍了TensorFlow中`tf.Variable()`和`tf.get_variable()`的使用方法、参数含义以及它们之间的区别。
438 0
|
7月前
|
存储 监控 TensorFlow
DeepRec Extension 打造稳定高效的分布式训练
DeepRec Extension 打造稳定高效的分布式训练
|
7月前
|
人工智能 监控 开发者
阿里云PAI发布DeepRec Extension,打造稳定高效的分布式训练,并宣布开源!
阿里云PAI发布DeepRec Extension,打造稳定高效的分布式训练,并宣布开源!
130 0
|
7月前
|
机器学习/深度学习 存储
DeepSeek进阶开发与应用4:DeepSeek中的分布式训练技术
随着深度学习模型和数据集规模的扩大,单机训练已无法满足需求,分布式训练技术应运而生。DeepSeek框架支持数据并行和模型并行两种模式,通过将计算任务分配到多个节点上并行执行,显著提高训练效率。本文介绍DeepSeek中的分布式训练技术,包括配置与启动方法,帮助用户轻松实现大规模模型训练。数据并行通过`MirroredStrategy`同步梯度,适用于大多数模型;模型并行则通过`ParameterServerStrategy`异步处理大模型。DeepSeek简化了分布式环境配置,支持单机多卡和多机多卡等场景。

热门文章

最新文章