0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何借助分布式GPU环境来提升神经网络训练系统的浮点计算能力

lviY_AI_shequ 来源:未知 作者:工程师9 2018-05-28 11:11 次阅读

前言

在大型数据集上进行训练的现代神经网络架构,可以跨广泛的多种领域获取可观的结果,涵盖从图像识别、自然语言处理,到欺诈检测推荐系统等各个方面。但训练这些神经网络模型需要大量浮点计算能力。虽然,近年来 GPU 硬件算力和训练方法上均取得了重大进步,但在单一机器上,网络训练所需要的时间仍然长得不切实际,因此需要借助分布式GPU环境来提升神经网络训练系统的浮点计算能力。

TensorFlow分布式训练

如何借助分布式GPU环境来提升神经网络训练系统的浮点计算能力

TensorFlow 采用了数据流范式, 使用节点和边的有向图来表示计算。TensorFlow 需要用户静态声明这种符号计算图,并对该图使用复写和分区(rewrite & partitioning)将其分配到机器上进行分布式执行。

如何借助分布式GPU环境来提升神经网络训练系统的浮点计算能力

TensorFlow 中的分布式机器学习训练使用了如图所示的参数服务器方法 。

Cluster、Job、Task

关于TensorFlow的分布式训练,主要概念包括Cluster、Job、Task,其关联关系如下:

TensorFlow分布式Cluster由多个Task组成,每个Task对应一个tf.train.Server实例,作为Cluster的一个单独节点;

多个相同作用的Task可以被划分为一个Job,在分布式深度学习框架中,我们一般把Job划分为Parameter Server和Worker,Parameter Job是管理参数的存储和更新工作,而Worker Job运行OPs,作为计算节点只执行计算密集型的Graph计算;

Cluster中的Task会相对进行通信,以便进行状态同步、参数更新等操作,如果参数的数量过大,一台机器处理不了,这就要需要多个Task。

TensorFlow分布式计算模式

In-graph 模式

In-graph模式,将模型计算图的不同部分放在不同的机器上执行。把计算从单机多GPU扩展到了多机多GPU, 不过数据分发还是在一个节点。这样配置简单, 多机多GPU的计算节点只需进行join操作, 对外提供一个网络接口来接受任务。训练数据的分发依然在一个节点上, 把训练数据分发到不同的机器上, 将会影响并发训练速度。在大数据训练的情况下, 不推荐使用这种模式。

Between-graph 模式

Between-graph模式下,数据并行,每台机器使用完全相同的计算图。训练的参数保存在参数服务器,数据不用分发,而是分布在各个计算节点自行计算, 把要更新的参数通知参数服务器进行更新。这种模式不需要再练数据的分发, 数据量在TB级时可以节省大量时间,目前主流的分布式训练模式以 Between-graph为主。

参数更新方式

同步更新

各个用于并行计算的节点,计算完各自的batch 后,求取梯度值,把梯度值统一送到PS参数服务机器中,并等待PS更新模型参数。PS参数服务器在收集到一定数量计算节点的梯度后,求取梯度平均值,更新PS参数服务器上的参数,同时将参数推送到各个worker节点。

异步更新

PS参数服务器只要收到一台机器的梯度值,就直接进行参数更新,无需等待其它机器。这种迭代方法比较不稳定,因为当A机器计算完更新了PS参数服务器中的参数,可能B机器还是在用上一次迭代的旧版参数值。

分布式训练步骤

命令行参数解析,获取集群的信息ps_hosts和worker_hosts,以及当前节点的角色信息job_name和task_index

创建当前Task结点的Server

cluster = tf.train.ClusterSpec({"ps": ps_hosts, "worker": worker_hosts})server = tf.train.Server(cluster, job_name=FLAGS.job_name, task_index=FLAGS.task_index)

如果当前节点是Parameter Server,则调用server.join()无休止等待;如果是Worker,则执行下一步

if FLAGS.job_name == "ps": server.join()

构建要训练的模型

# build tensorflow graph model

创建tf.train.Supervisor来管理模型的训练过程

# Create a "supervisor", which oversees the training process.sv = tf.train.Supervisor(is_chief=(FLAGS.task_index == 0), logdir="/tmp/train_logs")# The supervisor takes care of session initialization and restoring from a checkpoint.sess = sv.prepare_or_wait_for_session(server.target)# Loop until the supervisor shuts downwhile not sv.should_stop() # train model

UAITrain分布式训练部署

UCloud AI 训练服务(UCloud AI Train)是面向AI训练任务的大规模分布式计算平台,基于高性能GPU计算节点提供一站式托管AI训练任务服务。用户在提交AI训练任务后,无需担心计算节点调度、训练环境准备、数据上传下载以及容灾等问题。

目前,UAI--Train平台支持TensorFlow 和 MXNet 框架的分布式训练。需要将PS代码和Worker代码实现在同一个代码入口中,执行过程中,PS 和 Worker 将使用相同的Docker容器镜像和相同的python代码入口进行执行,系统将自动生成PS和Worker的env环境参数。TensorFlow 分布式训练采用PS-Worker的分布式格式,并提供python的接口运行分布式训练。

如何借助分布式GPU环境来提升神经网络训练系统的浮点计算能力

UAI--Train分布式训练采用Parameter Server和Worker Server混合部署的方法,所有计算节点均由GPU物理云主机组成。PS 仅使用CPU进行计算,Worker Server则同时使用GPU和CPU进行计算,PS 和 Worker的比例为1:1。

如何借助分布式GPU环境来提升神经网络训练系统的浮点计算能力

数据存储

分布式训练所使用的输入数据可以来自不同的数据源,目前UAI--Train仅支持UFS作为数据的存储。

Input 数据存储

指定一个UFS网盘作为Input数据源,UAI--Train平台在训练执行过程中会将对应的UFS数据映射到训练执行的Worker容器的 /data/data 目录下,系统会自动将数据映射到执行的容器中,如 ip:/xxx/data/imagenet/tf → /data/data/。

Output 数据存储

指定一个UFS网盘作为output数据源,UAI--Train平台在训练执行过程中会将对应的UFS数据映射到训练执行的每一个PS容器和Worker容器的 /data/output 目录下,并以共享的方式访问同一份数据。同时,在训练过程可以通过其云主机实时访问训练保存的模型checkpoint。

案例:通过CIFAR-10进行图像识别

CIFAR-10是机器学习中常见的图像识别数据集,该数据集共有60000张彩色图像。这些图像,分为10个类,每类6000张图,有50000张用于训练,另外10000用于测试。

http://groups.csail.mit.edu/vision/TinyImages/

调整训练代码

为了在UAI平台上进行训练,首先下载源代码,并对cifar10_main.py做如下修改:

添加相关参数:--data_dir, --output_dir, --work_dir, --log_dir, --num_gpus,UAITrain平台将会自动生成这些参数;

在代码中增加UAI参数:使用data_dir配置输入文件夹、使用output_dir配置输出文件夹。

具体案例代码可以在https://github.com/ucloud/uai-sdk/tree/master/examples/tensorflow/train/cifar获取

在UAI--Train平台执行训练

据https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10_estimator 的说明生成CIFAR-10的tfrecords;

使用UAI-SDK提供的tf_tools.py 生成CIFAR-10样例的Docker镜像;

确保Docker镜像已经上传至UHub,在UAI--Train平台上执行。

/data/cifar10_main.py --train-batch-size=16

在UAI平台上的分布式训练

CIFAR-10样例代码使用tf.estimator.Estimator API,只需一个分布式环境和分布式环境配置便可直接进行分布式训练,该配置需要适用于tf.estimator.Estimator API的标准,即定义一个TF_CONFIG 配置。

TF_CONFIG = {

"cluster":{

"master":["ip0:2222"],

"ps":["ip0:2223","ip1:2223"],

"worker":["ip1:2222"]},

"task":{"type":"worker","index":0},

"environment":"cloud"

}

UAITrain平台的分布式训练功能可以自动生成TensorFlow分布式训练的GPU集群环境,同时为每个训练节点自动生成TF_CONFIG。因此,在UAITrain平台上执行CIFAR-10的分布式训练和单机训练一样,仅需要指定input/output的UFS地址并执行如下指令即可:

/data/cifar10_main.py --train-batch-size=16

总结

UAI--Train TensorFlow的分布式训练环境实现基于TensorFlow 的分布式训练系统实现,采用默认的grpc协议进行数据交换。PS和Worker采用混合部署的方式部署,PS使用纯CPU计算,Worker使用GPU+CPU计算。

在UAI--Train平台中可以非常方便的开展分布式计算,提高效率、压缩训练时间。最后通过CIFAR-10 案例解析在UAITrain平台上训练所需做出的修改,并在UAITrain平台上进行分布式UAI--Train平台训练。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4562

    浏览量

    98646
  • 网络训练
    +关注

    关注

    0

    文章

    3

    浏览量

    1488

原文标题:基于UAI-Train平台的分布式训练

文章出处:【微信号:AI_shequ,微信公众号:人工智能爱好者社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    人工神经网络原理及下载

    这个网络输入和相应的输出来“训练”这个网络网络根据输入和输出不断地调节自己的各节点之间的权值满足输入和输出。这样,当
    发表于 06-19 14:40

    神经网络解决方案让自动驾驶成为现实

    使用最为有利的系统训练往往在线下通过基于 CPU 的系统、图形处理器 (GPU) 或现场可编程门阵列 (FPGA) 完成。由于
    发表于 12-21 17:11

    从AlexNet到MobileNet,带你入门深度神经网络

    通过堆叠卷积层使得模型更深更宽,同时借助GPU使得训练再可接受的时间范围内得到结果,推动了卷积神经网络甚至是深度学习的发展。下面是AlexNet的架构:AlexNet的特点有:1.
    发表于 05-08 15:57

    【案例分享】ART神经网络与SOM神经网络

    元,它决定了该输入向量在地位空间中的位置。SOM神经网络训练的目的就是为每个输出层神经元找到合适的权向量,以达到保持拓扑结构的目的。SOM的训练过程其实很简单,就是接收到一个
    发表于 07-21 04:30

    ETPU-Z2全可编程神经网络开发平台

    和嵌入应用开发流程。神经网络算法的开发通常在Host主机上使用GPU加速完成,其简要的流程如下:开发人员在Host主机上进行算法开发工作(训练);开发(
    发表于 05-18 17:13

    嵌入神经网络有哪些挑战

      1、宽频限制以及嵌入系统计算能力  NN需要大量数据,利用DDR在各层之间进行传输。如为卷积和完全连接数据重量来自DDR,数据传输极其庞大。在这些情况下,也要使用
    发表于 06-30 11:01

    如何构建神经网络

    原文链接:http://tecdat.cn/?p=5725 神经网络是一种基于现有数据创建预测的计算系统。如何构建神经网络神经网络包括:输
    发表于 07-12 08:02

    用S3C2440训练神经网络算法

    嵌入设备自带专用属性,不适合作为随机性很强的人工智能深度学习训练平台。想象用S3C2440训练神经网络算法都会头皮发麻,PC上的I7、GPU
    发表于 08-17 08:51

    基于BP神经网络的PID控制

    最近在学习电机的智能控制,上周学习了基于单神经元的PID控制,这周研究基于BP神经网络的PID控制。神经网络具有任意非线性表达能力,可以通过对系统
    发表于 09-07 07:43

    嵌入中的人工神经网络的相关资料分享

    人工神经网络在AI中具有举足轻重的地位,除了找到最好的神经网络模型和训练数据集之外,人工神经网络的另一个挑战是如何在嵌入设备上实现它,同时
    发表于 11-09 08:06

    分享一种用于神经网络处理的新8位浮点交换格式

    速度增长,需要新的硬件和软件创新来继续平衡内存,计算效率和带宽。神经网络 (NN) 的训练对于 AI 能力的持续提升至关重要,今天标志着这一
    发表于 09-15 15:15

    如何进行高效的时序图神经网络训练

    现有的图数据规模极大,导致时序图神经网络训练需要格外长的时间,因此使用多GPU进行训练变得成为尤为重要,如何有效地将多GPU用于时序图
    发表于 09-28 10:37

    Gaudi Training系统介绍

    上进行网络训练可能需要不切实际的长时间。幸运的是,我们不局限于一台机器。为了实现深度神经网络的高效分布式训练,已经进行了大量的研究和开发。本
    发表于 08-04 06:48

    基于神经网络分布式电源在PSASP中应用

    neural network,ANN)以其强非线性映射能力和自适应自学习能力为此问题的研究提供了有效途径,综述了各种神经网络模型在电力系统负荷建模中的应用,并比较其优劣。对Elman
    发表于 02-28 15:20 5次下载
    基于<b class='flag-5'>神经网络</b>的<b class='flag-5'>分布式</b>电源在PSASP中应用

    基于虚拟化的多GPU深度神经网络训练框架

    GPU训练过程中的参数交换的位置,达到两者兼容的目的。该方法利用分布式环境中的远程GPU资源实现深度
    发表于 03-29 16:45 0次下载
    基于虚拟化的多<b class='flag-5'>GPU</b>深度<b class='flag-5'>神经网络</b><b class='flag-5'>训练</b>框架